更新时间:2024-07-06 GMT+08:00
分享

线下容器镜像构建及调试

镜像构建

  1. 导出conda环境

    首先拉起线下的容器镜像:

    # run on terminal
    docker run -ti ${your_image:tag}

    在容器中输入如下命令,得到pytorch.tar.gz:

    # run on container
    
    # 基于想要迁移的base环境创建一个名为pytorch的conda环境
    conda create --name pytorch --clone base
    
    pip install conda-pack
    
    #将pytorch env打包生成pytorch.tar.gz
    conda pack -n pytorch -o pytorch.tar.gz

    将打包好的压缩包传到本地:

    # run on terminal
    docker cp ${your_container_id}:/xxx/xxx/pytorch.tar.gz .

    将pytorch.tar.gz上传到OBS并设置公共读,并在构建时wget获取、解压、清理。

  2. 新镜像构建

    基础镜像一般选用ubuntu 18.04的官方镜像,或者nvidia官方提供的带cuda驱动的镜像。相关镜像直接到dockerhub官网查找即可。

    构建流程:安装所需的apt包、驱动,配置ma-user用户、导入conda环境、配置Notebook依赖。

    • 推荐使用Dockerfile的方式构建镜像。这样既满足dockerfile可追溯及构建归档的需求,也保证镜像内容无冗余和残留。
    • 每层构建的时候都尽量把tar包等中间态文件删除,保证最终镜像更小,清理缓存的方法可参考:conda clean
  3. 构建参考样例
    Dockerfile样例:
    FROM nvidia/cuda:11.3.1-cudnn8-devel-ubuntu18.04
    
    USER root
    
    # section1: add user ma-user whose uid is 1000 and user group ma-group whose gid is 100. If there alreay exists 1000:100 but not ma-user:ma-group, below code will remove it
    RUN default_user=$(getent passwd 1000 | awk -F ':' '{print $1}') || echo "uid: 1000 does not exist" && \
        default_group=$(getent group 100 | awk -F ':' '{print $1}') || echo "gid: 100 does not exist" && \
        if [ ! -z ${default_group} ] && [ ${default_group} != "ma-group" ]; then \
            groupdel -f ${default_group}; \
            groupadd -g 100 ma-group; \
        fi && \
        if [ -z ${default_group} ]; then \
            groupadd -g 100 ma-group; \
        fi && \
        if [ ! -z ${default_user} ] && [ ${default_user} != "ma-user" ]; then \
            userdel -r ${default_user}; \
            useradd -d /home/ma-user -m -u 1000 -g 100 -s /bin/bash ma-user; \
            chmod -R 750 /home/ma-user; \
        fi && \
        if [ -z ${default_user} ]; then \
            useradd -d /home/ma-user -m -u 1000 -g 100 -s /bin/bash ma-user; \
            chmod -R 750 /home/ma-user; \
        fi && \
        # set bash as default
        rm /bin/sh && ln -s /bin/bash /bin/sh
    
    # section2: config apt source and install tools needed.
    RUN sed -i "s@http://.*archive.ubuntu.com@http://repo.huaweicloud.com@g" /etc/apt/sources.list && \
        sed -i "s@http://.*security.ubuntu.com@http://repo.huaweicloud.com@g" /etc/apt/sources.list && \
        apt-get update && \
        apt-get install -y ca-certificates curl ffmpeg git libgl1-mesa-glx libglib2.0-0 libibverbs-dev libjpeg-dev libpng-dev libsm6 libxext6 libxrender-dev ninja-build screen sudo vim wget zip && \
        apt-get clean  && \
        rm -rf /var/lib/apt/lists/*
    
    USER ma-user
    
    # section3: install miniconda and rebuild conda env
    RUN mkdir -p /home/ma-user/work/ && cd /home/ma-user/work/ && \
        wget https://repo.anaconda.com/miniconda/Miniconda3-py37_4.12.0-Linux-x86_64.sh && \
        chmod 777 Miniconda3-py37_4.12.0-Linux-x86_64.sh && \
        bash Miniconda3-py37_4.12.0-Linux-x86_64.sh -bfp /home/ma-user/anaconda3 && \
        wget https://${bucketname}.obs.cn-north-4.myhuaweicloud.com/${folder_name}/pytorch.tar.gz && \
        mkdir -p /home/ma-user/anaconda3/envs/pytorch && \
        tar -xzf pytorch.tar.gz -C /home/ma-user/anaconda3/envs/pytorch && \
        source /home/ma-user/anaconda3/envs/pytorch/bin/activate && conda-unpack && \
        /home/ma-user/anaconda3/bin/conda init bash && \
        rm -rf /home/ma-user/work/*
    
    ENV PATH=/home/ma-user/anaconda3/envs/pytorch/bin:$PATH
    
    # section4: settings of Jupyter Notebook for pytorch env
    RUN source /home/ma-user/anaconda3/envs/pytorch/bin/activate && \
        pip install ipykernel==6.7.0 --trusted-host https://repo.huaweicloud.com -i https://repo.huaweicloud.com/repository/pypi/simple && \
        ipython kernel install --user --env PATH /home/ma-user/anaconda3/envs/pytorch/bin:$PATH --name=pytorch && \
        rm -rf /home/ma-user/.local/share/jupyter/kernels/pytorch/logo-* && \
        rm -rf ~/.cache/pip/* && \
        echo 'export PATH=$PATH:/home/ma-user/.local/bin' >> /home/ma-user/.bashrc && \
        echo 'export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/nvidia/lib64' >> /home/ma-user/.bashrc && \
        echo 'conda activate pytorch' >> /home/ma-user/.bashrc
    
    ENV DEFAULT_CONDA_ENV_NAME=pytorch

    Dockerfile中的"https://${bucket_name}.obs.cn-north-4.myhuaweicloud.com/${folder_name}/pytorch.tar.gz",需要替换为1中pytorch.tar.gz在OBS上的路径(需将文件设置为公共读)。

    进入Dockerfile目录,通过Dockerfile构建镜像命令:

    # cd 到Dockerfile所在目录下,输入构建命令
    # docker build -t ${image_name}:${image_version} .
    # 例如
    docker build -t pytorch-1.13-cuda11.3-cudnn8-ubuntu18.04:v1 .
  • 容器镜像的大小建议小于15G,不能大于25G。否则镜像的迁移、拉起都会存在性能问题。
  • 建议通过开源的官方镜像来构建,例如PyTorch的官方镜像。
  • 建议容器分层构建,单层容量不要超过1G、文件数不大于10w个。分层时,先构建不常变化的层,例如:先OS,再cuda驱动,再Python,再pytorch,再其他依赖包。
  • 不建议把数据、代码放到容器镜像里。因为对应内容应该是经常变动的,会导致频繁的容器镜像构建操作。
  • 不建议在容器内再创建多个conda env。因为容器已经能满足隔离需求,没有必要再通过conda env做隔离。
  • 本教程通过打包conda env来构建环境,也可以通过pip install、conda install等方式安装conda环境的依赖。
  • 更多ModelArts自定义镜像介绍请见自定义镜像简介

调试要点

  1. 确认对应的脚本、代码、流程在linux服务器上运行正常。

    如果在linux服务器上运行就有问题,那么先调通以后再做容器镜像。

  2. 确认打入镜像的文件是否在正确的位置、是否有正确的权限。

    训练场景主要查看自研的依赖包是否正常,查看pip list是否包含所需的包,查看容器直接调用的python是否是自己所需要的那个(如果容器镜像装了多个python,需要设置python路径的环境变量)。

  3. 测试训练启动脚本。
    1. 优先使用手工进行数据复制的工作并验证

      一般在镜像里不包含训练所用的数据和代码,所以在启动镜像以后需要手工把需要的文件复制进去。建议数据、代码和中间数据都放到"/cache"目录,防止正式运行时磁盘占满(请见ModelArts环境挂载目录说明)。建议linux服务器申请的时候,有足够大的内存(8G以上)以及足够大的硬盘(100G以上)。

      docker和linux的文件交互命令如下:

      docker cp data/ 39c9ceedb1f6:/cache/

      数据准备完成后,启动训练的脚本,查看训练是否能够正常拉起。一般来说,启动脚本为:

      cd /cache/code/ 
      python start_train.py

      如果训练流程不符合预期,可以在容器实例中查看日志、错误等,并进行代码、环境变量的修正。

    2. 预制脚本测试整体流程

      一般使用run.sh封装训练外的文件复制工作(数据、代码:OBS-->容器,输出结果:容器-->OBS),run.sh的构建方法参考run.sh脚本测试ModelArts训练整体流程

      如果预制脚本调用结果不符合预期,可以在容器实例中进行修改和迭代。

    3. 针对专属池场景

      由于专属池支持SFS挂载,因此代码、数据的导入会更简单,甚至可以不用再关注OBS的相关操作。

      可以直接把SFS的目录直接挂载到调试节点的"/mnt/sfs_turbo"目录,或者保证对应目录的内容和SFS盘匹配。

      调试时建议使用接近的方式,即:启动容器实例时使用"-v"参数来指定挂载某个宿主机目录到容器环境。

      docker run -ti -d -v /mnt/sfs_turbo:/sfs my_deeplearning_image:v1

      上述命令表示把宿主机的"/mnt/sfs_turbo"目录挂载到容器的"/sfs"目录,在宿主机和容器对应目录的所有改动都是实时同步的。

  4. 分析错误时:训练镜像先看日志,推理镜像先看API的返回。

    可以通过命令查看容器输出到stdout的所有日志:

    docker logs -f 39c9ceedb1f6

    一般在做推理镜像时,部分日志是直接存储在容器内部的,所以需要进入容器看日志。注意:重点对应日志中是否有ERROR(包括,容器启动时、API执行时)。

  5. 牵扯部分文件用户组不一致的情况,可以在宿主机用root权限执行命令进行修改
    docker exec -u root:root 39c9ceedb1f6 bash -c "chown -R ma-user:ma-user /cache"
  6. 针对调试中遇到的错误,可以直接在容器实例里修改,修改结果可以通过commit命令持久化。

建议把调试过程中的修改点通过Dockerfile固化到容器构建正式流程,并重新测试。

分享:

    相关文档

    相关产品