RuntimeError: `<class 'transformers_modules.fnlp.moss-moon-003-sft-plugin-int4.353c499f7415575ba217704f3f28a1e817eb7487.quantization.QuantLine ar'>' was not properly set up for sharding by zero.Init(). A subclass of torch.nn.Module must be defined before zero.Init() where an instance of the class is created.这个错误是为什么
时间: 2024-02-16 19:01:09 浏览: 174
Python RuntimeError: thread.__init__() not called解决方法
这个错误是由于使用了 zero 包的分布式训练功能,并且没有正确地设置 torch.nn.Module 的子类。具体来说,必须在 zero.Init() 函数之前定义一个 torch.nn.Module 的子类,并在该类的实例化对象中使用 zero.Init() 函数。这个错误可能是由于在使用分布式训练时出现了一些问题,建议检查代码中的分布式训练部分是否正确设置。同时,您也可以尝试升级 PyTorch 和 Transformers 库,以确保使用的版本没有已知的分布式训练问题。
阅读全文