mmcv中dist_train.sh的一些命令的含义
CONFIG=$1
GPUS=$2
NNODES=${NNODES:-1}
NODE_RANK=${NODE_RANK:-0}
PORT=${PORT:-29500}
MASTER_ADDR=${MASTER_ADDR:-"127.0.0.1"}
PYTHONPATH="$(dirname $0)/..":$PYTHONPATH \
python -m torch.distributed.launch \
--nnodes=$NNODES \
--node_rank=$NODE_RANK \
--master_addr=$MASTER_ADDR \
--nproc_per_node=$GPUS \
--master_port=$PORT \
$(dirname "$0")/train.py \
$CONFIG \
--seed 0 \
--launcher pytorch \
${@:3} # 表示从第三个参数开始,也就是从$3开始,接收进来的参数会全部给train.py
训练模型的一个示例命令:
export PYTHONPATH=./ cd /mnt/data/wangpeng/flashocc bash ./tools/dist_train_wangpeng.sh ./projects/configs/flashocc/flashocc-r50_wangpeng.py 2 --work-dir ../exp_results/flashocc/

浙公网安备 33010602011771号