export OMNISTORE_LOAD_STRICT_MODE=0 export OMNISTORE_LOGGING_LEVEL=ERROR ################################################################# ## Torch ################################################################# export TOKENIZERS_PARALLELISM=false export TORCH_LOGS="+dynamo,recompiles,graph_breaks" export TORCHDYNAMO_VERBOSE=1 export TORCH_NCCL_ENABLE_MONITORING=1 export PYTORCH_CUDA_ALLOC_CONF="expandable_segments:True,garbage_collection_threshold:0.9" ################################################################# ################################################################# ## NCCL ################################################################# export NCCL_IB_GID_INDEX=3 export NCCL_IB_HCA=$ARNOLD_RDMA_DEVICE export NCCL_SOCKET_IFNAME=eth0 export NCCL_SOCKET_TIMEOUT=3600000 export NCCL_DEBUG=WARN # disable the verbose NCCL logs export NCCL_P2P_DISABLE=0 export NCCL_IB_DISABLE=0 # was 1 export NCCL_SHM_DISABLE=0 # was 1 export NCCL_P2P_LEVEL=NVL export NCCL_PXN_DISABLE=0 export NCCL_NET_GDR_LEVEL=2 export NCCL_IB_QPS_PER_CONNECTION=4 export NCCL_IB_TC=160 export NCCL_IB_TIMEOUT=22 ################################################################# # accelerate launch --mixed_precision="bf16" --multi_gpu offoload_features.py # CUDA_VISIBLE_DEVICES=0 accelerate launch offoload_features.py export CUDA_VISIBLE_DEVICES=2,3,4,5,6,7 torchrun --nproc_per_node=6 --master_port=12345 offoload_features.py \ --batch_size 1 \ --config_path part0.yaml