Traceback (most recent call last): File "D:\ChatGLM-6B\web_demo_old.py", line 5, in <module> model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda() File "D:\ChatGLM-6B\venv\lib\site-packages\torch\nn\modules\module.py", line 905, in cuda return self._apply(lambda t: t.cuda(device)) File "D:\ChatGLM-6B\venv\lib\site-packages\torch\nn\modules\module.py", line 797, in _apply module._apply(fn) File "D:\ChatGLM-6B\venv\lib\site-packages\torch\nn\modules\module.py", line 797, in _apply module._apply(fn) File "D:\ChatGLM-6B\venv\lib\site-packages\torch\nn\modules\module.py", line 820, in _apply param_applied = fn(param) File "D:\ChatGLM-6B\venv\lib\site-packages\torch\nn\modules\module.py", line 905, in <lambda> return self._apply(lambda t: t.cuda(device)) File "D:\ChatGLM-6B\venv\lib\site-packages\torch\cuda\__init__.py", line 239, in _lazy_init raise AssertionError("Torch not compiled with CUDA enabled") AssertionError: Torch not compiled with CUDA enabled
时间: 2023-07-24 12:14:56 浏览: 160
这是一个错误提示,说明你的Torch库没有启用CUDA编译。CUDA是NVIDIA的并行计算平台,用于在GPU上加速深度学习计算。要解决这个问题,你可以尝试以下几个步骤:
1. 确保你已经正确安装了NVIDIA的显卡驱动程序,并且你的显卡支持CUDA。
2. 确保你已经正确安装了CUDA Toolkit。可以到NVIDIA官方网站下载对应版本的CUDA Toolkit,并按照安装指南进行安装。
3. 确保你已经正确安装了PyTorch,并且使用了支持CUDA的版本。可以通过`pip install torch`命令来安装PyTorch,确保选择了支持CUDA的版本。
4. 如果你已经按照上述步骤进行了安装,但仍然遇到问题,那么可能是因为你的PyTorch安装时没有正确配置CUDA支持。你可以尝试重新安装PyTorch,或者查看官方文档了解如何配置CUDA支持。
希望以上信息对你有帮助!如果还有其他问题,请随时提问。
相关问题
(base) PS D:\chatglm\chatglm-6b-main\ptuning> bash train.sh Traceback (most recent call last): File "/mnt/d/chatglm/chatglm-6b-main/ptuning/main.py", line 26, in <module> import numpy as np ModuleNotFoundError: No module named 'numpy' (base) PS D:\chatglm\chatglm-6b-main\ptuning>
这个错误表明你的 Python 环境中没有安装 numpy 模块。根据你的路径和命令提示符,看起来你正在使用 Windows 系统。
在 Windows 上,可以按照以下步骤安装 numpy:
1. 打开命令提示符(Command Prompt)或 PowerShell。
2. 确认你已经安装了 pip 包管理器。你可以在命令提示符或 PowerShell 中输入以下命令来检查:
```
pip --version
```
如果显示了 pip 的版本信息,那么你可以继续下一步。否则,你需要先安装 pip。
3. 输入以下命令来安装 numpy:
```
pip install numpy
```
这将会下载并安装最新版本的 numpy 库。
4. 安装完成后,再次运行你的 train.sh 脚本,应该就不再报缺少 numpy 模块的错误了。
请注意,在 Windows 上,使用 bash 运行脚本可能会遇到一些问题。如果你还是无法成功运行脚本,请尝试在 Windows 的命令提示符或 PowerShell 中直接运行 Python 命令来执行训练脚本,例如:
```
python /mnt/d/chatglm/chatglm-6b-main/ptuning/main.py
```
希望这些步骤能帮助你解决问题!如果还有其他疑问,请随时提问。
python web_demo.py Explicitly passing a `revision` is encouraged when loading a model with custom code to ensure no malicious code has been contributed in a newer revision. Traceback (most recent call last): File "/home/nano/THUDM/ChatGLM-6B/web_demo.py", line 5, in <module> tokenizer = AutoTokenizer.from_pretrained("/home/nano/THUDM/chatglm-6b", trust_remote_code=True) File "/home/nano/.local/lib/python3.10/site-packages/transformers/models/auto/tokenization_auto.py", line 679, in from_pretrained return tokenizer_class.from_pretrained(pretrained_model_name_or_path, *inputs, **kwargs) File "/home/nano/.local/lib/python3.10/site-packages/transformers/tokenization_utils_base.py", line 1804, in from_pretrained return cls._from_pretrained( File "/home/nano/.local/lib/python3.10/site-packages/transformers/tokenization_utils_base.py", line 1958, in _from_pretrained tokenizer = cls(*init_inputs, **init_kwargs) File "/home/nano/.cache/huggingface/modules/transformers_modules/chatglm-6b/tokenization_chatglm.py", line 221, in __init__ self.sp_tokenizer = SPTokenizer(vocab_file, num_image_tokens=num_image_tokens) File "/home/nano/.cache/huggingface/modules/transformers_modules/chatglm-6b/tokenization_chatglm.py", line 64, in __init__ self.text_tokenizer = TextTokenizer(vocab_file) File "/home/nano/.cache/huggingface/modules/transformers_modules/chatglm-6b/tokenization_chatglm.py", line 22, in __init__ self.sp.Load(model_path) File "/home/nano/.local/lib/python3.10/site-packages/sentencepiece/__init__.py", line 905, in Load return self.LoadFromFile(model_file) File "/home/nano/.local/lib/python3.10/site-packages/sentencepiece/__init__.py", line 310, in LoadFromFile return _sentencepiece.SentencePieceProcessor_LoadFromFile(self, arg) RuntimeError: Internal: src/sentencepiece_processor.cc(1101) [model_proto->ParseFromArray(serialized.data(), serialized.size())]什么错误
根据您提供的错误信息,看起来是加载模型时出现了一些问题。具体来说,这个错误是由于加载了一个具有自定义代码的模型,并且在加载时没有明确指定修订版本。为了确保没有恶意代码被贡献到较新的修订版本中,建议显式地传递一个`revision`参数。
您可以尝试以下解决方法:
在`web_demo.py`文件中,将以下代码行:
```python
tokenizer = AutoTokenizer.from_pretrained("/home/nano/THUDM/chatglm-6b", trust_remote_code=True)
```
替换为:
```python
tokenizer = AutoTokenizer.from_pretrained("/home/nano/THUDM/chatglm-6b", trust_remote_code=True, revision="main")
```
这样会明确指定修订版本为"main",以避免加载模型时出现安全问题。请确保您已经下载了正确的模型文件并将路径指向正确的位置。
如果问题仍然存在,请提供更多详细信息,以便我能够更好地帮助您解决问题。
阅读全文