File "C:\Users\SICC\.conda\envs\SICC-CGL\lib\site-packages\streamlit\runtime\scriptrunner\script_runner.py", line 552, in _run_script exec(code, module.__dict__) File "D:\chatglm\chatglm-6b-main\web_demo2.py", line 79, in <module> st.session_state["state"] = predict(prompt_text, 4096, 1.0, 1.0, st.session_state["state"]) File "D:\chatglm\chatglm-6b-main\web_demo2.py", line 37, in predict user_avatar = symbol_map["user"]
时间: 2023-07-21 21:04:03 浏览: 121
根据您提供的错误信息,看起来问题出现在您的代码中的第37行。具体来说,这里似乎出现了一个KeyError,表示在`symbol_map`字典中找不到"user"键。
请确保在您的代码中正确定义并初始化了`symbol_map`字典,并且确保键"user"存在于该字典中。您可以使用以下代码作为参考:
```python
symbol_map = {
"user": "👤",
"bot": "🤖"
}
```
如果问题仍然存在,请检查您的代码逻辑和变量名称,确保没有其他地方导致了键错误。
如果您仍然遇到困难,请提供更多相关的代码片段和错误信息,以便我能够更好地帮助您解决问题。
相关问题
OSError: We couldn't connect to 'https://huggingface.co' to load this file, couldn't find it in the cached files and it looks like THUDM/chatglm-6b is not the path to a directory containing a file named config.json. Checkout your internet connection or see how to run the library in offline mode at 'https://huggingface.co/docs/transformers/installation#offline-mode'. Traceback: File "C:\Users\SICC\AppData\Roaming\Python\Python310\site-packages\streamlit\runtime\scriptrunner\script_runner.py", line 552, in _run_script exec(code, module.__dict__) File "D:\chatglm\chatglm-6b\web_demos.py", line 77, in <module> st.session_state["state"] = predict(prompt_text, 4096, 1.0, 1.0, st.session_state["state"]) File "D:\chatglm\chatglm-6b\web_demos.py", line 40, in predict tokenizer, model = get_model() File "D:\chatglm\chatglm-6b\web_demos.py", line 31, in get_model tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) File "C:\Users\SICC\.conda\envs\SICC-CGL\lib\site-packages\transformers\models\auto\tokenization_auto.py", line 634, in from_pretrained config = AutoConfig.from_pretrained( File "C:\Users\SICC\.conda\envs\SICC-CGL\lib\site-packages\transformers\models\auto\configuration_auto.py", line 896, in from_pretrained config_dict, unused_kwargs = PretrainedConfig.get_config_dict(pretrained_model_name_or_path, **kwargs) File "C:\Users\SICC\.conda\envs\SICC-CGL\lib\site-packages\transformers\configuration_utils.py", line 573, in get_config_dict config_dict, kwargs = cls._get_config_dict(pretrained_model_name_or_path, **kwargs) File "C:\Users\SICC\.conda\envs\SICC-CGL\lib\site-packages\transformers\configuration_utils.py", line 628, in _get_config_dict resolved_config_file = cached_file( File "C:\Users\SICC\.conda\envs\SICC-CGL\lib\site-packages\transformers\utils\hub.py", line 443, in cached_file raise EnvironmentError(
这个错误是由于无法连接到Hugging Face的服务器来加载模型文件所致。可能是因为你的网络连接有问题,或者模型文件在缓存中不存在。另外,根据错误信息看起来你使用了一个不正确的模型路径。请确保你提供的模型路径是正确的,并且你的网络连接正常。你可以检查一下网络连接,或者参考Hugging Face的文档了解如何在离线模式下运行库。
Traceback (most recent call last): File "C:\Users\SICC\AppData\Roaming\Python\Python310\site-packages\streamlit\runtime\scriptrunner\script_runner.py", line 552, in _run_script exec(code, module.__dict__) File "D:\chatglm\chatglm-6b\web_demos.py", line 76, in <module> # text generation File "D:\chatglm\chatglm-6b\web_demos.py", line 55, in predict for response, history in model.stream_chat(input_text, history, max_length=max_length, top_p=top_p, temperature=temperature): File "C:\Users\SICC\.conda\envs\SICC-CGL\lib\site-packages\torch\utils\_contextlib.py", line 35, in generator_context response = gen.send(None) File "C:\Users\SICC/.cache\huggingface\modules\transformers_modules\model\modeling_chatglm.py", line 1309, in stream_chat inputs = tokenizer([prompt], return_tensors="pt") TypeError: 'str' object is not callable
这个错误是由于在代码中尝试调用一个字符串对象而不是函数引起的。具体来说,在模型的stream_chat函数中,尝试使用tokenizer函数对输入进行编码时出现了问题。
要解决这个问题,你可以检查以下几个方面:
1. 确保你在代码中正确导入了tokenizer模块。你可以使用类似于`from transformers import AutoTokenizer`的语句来导入正确的tokenizer。
2. 确保你正确初始化了tokenizer对象。通常,你需要使用正确的tokenizer名称和模型名称来初始化tokenizer。例如,`tokenizer = AutoTokenizer.from_pretrained("模型名称")`。
3. 检查你是否正确地调用了tokenizer函数。在这种情况下,tokenizer应该是一个对象,而不是一个字符串。你可以使用`inputs = tokenizer.encode_plus(prompt, return_tensors="pt")`来对输入进行编码。
请注意,这只是一种可能的解决方案。根据你的代码和模型初始化方式,可能还有其他原因导致这个错误。如果问题仍然存在,请提供更多的代码细节和初始化模型的方式,以便我能够更好地帮助你解决问题。
阅读全文