huggingface下载模型的使用
时间: 2023-09-21 08:12:34 浏览: 287
使用huggingface下载模型的方法有两种。一种是使用`from_pretrained`方法,它会自动将模型存放在特定的位置。比如,你可以使用以下代码:
```
from transformers import AutoModel
model = AutoModel.from_pretrained("username/your-model-name")
```
其中,`username/your-model-name`是你要下载的模型的名称。这种方法会将模型存放在默认的位置:`~/.cache/huggingface/hub/models`。
另一种方法是使用git clone命令来下载模型。你可以使用以下命令下载bert-base-uncased模型:
```
git clone https://huggingface.co/bert-base-uncased
```
这将会以git的方式将模型下载到当前目录下的`bert-base-uncased`文件夹中。
另外,早些时候下载huggingface上的模型时,人们通常使用类似以下脚本的方式进行下载:
```
from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
model = AutoModelForMaskedLM.from_pretrained("bert-base-uncased")
```
这种方法与使用`from_pretrained`方法类似,只是将tokenizer和model分别初始化。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* [huggingface 下载模型方法与位置(linux服务器)](https://blog.csdn.net/frontiers/article/details/130776853)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
- *2* *3* [下载huggingface上模型的正确姿势](https://blog.csdn.net/ljp1919/article/details/125977360)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]
阅读全文