nn.Embedding初始化
时间: 2024-12-31 18:29:38 浏览: 8
### 初始化 PyTorch `nn.Embedding` 层
在 PyTorch 中,可以通过多种方式初始化 `nn.Embedding` 层。以下是几种常见的方法:
#### 使用随机初始化
默认情况下,`nn.Embedding` 的权重会通过均匀分布进行随机初始化。
```python
import torch
import torch.nn as nn
num_embeddings = 10 # 词汇表大小
embedding_dim = 3 # 嵌入向量的维度
embedding_layer = nn.Embedding(num_embeddings, embedding_dim)
print(embedding_layer.weight.data)
```
这将创建一个具有指定数量词汇项和嵌入维度的嵌入层,并打印其初始权重数据[^2]。
#### 手动设置权重
如果希望手动设定特定的初始权重,则可以直接修改 `.weight` 参数的数据。
```python
pretrained_weights = torch.tensor([
[0.1, 0.2, 0.3],
[0.4, 0.5, 0.6],
...
], dtype=torch.float)
assert pretrained_weights.shape == (num_embeddings, embedding_dim), "Shape mismatch"
embedding_layer.weight.data.copy_(pretrained_weights)
```
此代码片段展示了如何用自定义张量替换原始权重[^3]。
#### 加载预训练词向量
当利用外部资源如 GloVe 或 Word2Vec 进行初始化时,通常先加载这些模型中的词向量到 Python 数据结构中,再将其赋给新的 `Embedding` 实例。
假设已经有一个名为 `word_to_vec_map` 的字典存储了词语及其对应向量的关系:
```python
vocab_size = len(word_to_vec_map) + 1 # 预留位置给未知词或其他特殊标记
embeddings_matrix = np.zeros((vocab_size, word_vector_dimension))
for word, i in word_index.items():
if word in word_to_vec_map:
embeddings_matrix[i] = word_to_vec_map[word]
embedding_layer = nn.Embedding.from_pretrained(torch.FloatTensor(embeddings_matrix))
```
这段脚本说明了怎样构建适合传递给 `from_pretrained()` 方法的矩阵形式输入[^1]。
阅读全文