| distributed init (rank 0): /public/home/ac2ax5rex7/projects/lift/detr/ Traceback (most recent call last): File "main.py", line 253, in <module> main(args) File "main.py", line 111, in main utils.init_distributed_mode(args) File "/public/home/ac2ax5rex7/projects/lift/detr/util/misc.py", line 425, in init_distributed_mode torch.distributed.init_process_group(backend=args.dist_backend, init_method=args.dist_url, File "/public/home/ac2ax5rex7/miniconda3/envs/detr/lib/python3.8/site-packages/torch/distributed/distributed_c10d.py", line 573, in init_process_group rendezvous_iterator = rendezvous( File "/public/home/ac2ax5rex7/miniconda3/envs/detr/lib/python3.8/site-packages/torch/distributed/rendezvous.py", line 88, in rendezvous raise RuntimeError("No rendezvous handler for {}://".format(result.scheme)) RuntimeError: No rendezvous handler for ://
时间: 2023-08-20 15:07:30 浏览: 136
这个错误是由于在初始化分布式训练时,没有提供正确的分布式 URL。一般来说,需要提供 init_method 参数来指定用于连接进程的 URL。你可以检查一下你的代码,看看是否正确地设置了 init_method 参数。同时,也可以确保你使用的分布式后端与 init_method 参数匹配。例如,如果你使用 NCCL 后端,则应该使用 nccl:// 协议的 URL。
阅读全文