用加1平滑法的Bigram模型计算句子“我们一起去看电影”的概率,写出计算过程,其中语料库如下:S1:小红和小明今天去看电影了。S2:我们一起去图书馆吧。S3:他看了一本很有趣的书。S4:你要去看电影吗?
时间: 2023-05-31 07:02:25 浏览: 60
首先,需要统计出每个单词在语料库中出现的次数和每个Bigram出现的次数,如下表所示:
| 单词 | 出现次数 | Bigram | 出现次数 |
|------|----------|--------|----------|
| 我们 | 1 | 我们一起 | 1 |
| 一起 | 1 | 一起去 | 1 |
| 去 | 2 | 去看 | 2 |
| 看 | 2 | 看电影 | 2 |
| 电影 | 2 | | |
接下来,使用加1平滑法计算句子“我们一起去看电影”的概率:
P(我们一起去看电影) = P(我们) * P(一起|我们) * P(去|一起) * P(看|去) * P(电影|看)
P(我们) = (1+1)/(10+5) = 2/15
P(一起|我们) = (1+1)/(1+5) = 2/6
P(去|一起) = (1+1)/(2+5) = 2/7
P(看|去) = (1+1)/(2+5) = 2/7
P(电影|看) = (1+1)/(2+5) = 2/7
P(我们一起去看电影) = (2/15) * (2/6) * (2/7) * (2/7) * (2/7) ≈ 0.00056
因此,句子“我们一起去看电影”的概率约为0.00056。
相关问题
分别用Bigram和Trigram模型计算句子“我们一起去看电影”的概率,写出计算过程,其中语料库如下:S1:小红和小明今天去看电影了。S2:我们一起去图书馆吧。S3:他看了一本很有趣的书。S4:你要去看电影吗?
使用Bigram模型计算句子“我们一起去看电影”的概率:
P(我们一起去看电影) = P(我们) * P(一起|我们) * P(去|一起) * P(看|去) * P(电影|看)
从语料库中可知:
- P(我们) = 0,在语料库中不存在
- P(一起|我们) = 0,在语料库中不存在
- P(去|一起) = 0,在语料库中不存在
- P(看|去) = 1/3,在S1中,有3个bigram包含"去看",其中包含"看"的有1个
- P(电影|看) = 1/4,在S1中,有4个bigram包含"看电影",其中包含"电影"的有1个
因此,P(我们一起去看电影) = 0。
使用Trigram模型计算句子“我们一起去看电影”的概率:
P(我们一起去看电影) = P(我们|<s>,<s>) * P(一起|<s>,我们) * P(去|我们,一起) * P(看|一起,去) * P(电影|去,看) * P(</s>|看,电影)
从语料库中可知:
- P(我们|<s>,<s>) = 1/4,在S2中,有4个trigram以"我们"开头,其中1个以"<s>,<s>"开头
- P(一起|<s>,我们) = 0,在语料库中不存在
- P(去|我们,一起) = 0,在语料库中不存在
- P(看|一起,去) = 1,在S1中,有1个trigram为"一起去看"
- P(电影|去,看) = 1,在S1中,有1个trigram为"去看电影"
- P(</s>|看,电影) = 1,在语料库中不存在以"看电影"结尾的trigram
因此,P(我们一起去看电影) = 0。
由于语料库中没有“我们一起去看电影”这一序列,因此使用Bigram和Trigram模型计算均为0。
请采用加1平滑法重新计算上述句子的Bigram模型概率
假设训练语料库中的所有单词数为V,单词wi在训练语料库中出现的次数为count(wi),那么加1平滑法的Bigram模型概率计算公式为:
P(wi|wi-1) = (count(wi-1, wi) + 1) / (count(wi-1) + V)
其中,count(wi-1, wi)表示训练语料库中wi-1和wi相邻出现的次数,count(wi-1)表示训练语料库中wi-1出现的次数。
对于给定的句子“我 爱 北京 天安门”,采用加1平滑法重新计算其Bigram模型概率:
P(我|<s>) = (count(<s>, 我) + 1) / (count(<s>) + V) = (1 + 1) / (2 + V)
P(爱|我) = (count(我, 爱) + 1) / (count(我) + V) = (1 + 1) / (1 + V)
P(北京|爱) = (count(爱, 北京) + 1) / (count(爱) + V) = (1 + 1) / (1 + V)
P(天安门|北京) = (count(北京, 天安门) + 1) / (count(北京) + V) = (1 + 1) / (1 + V)
其中,<s>表示句子的开头,V为训练语料库中单词的总数。
根据链式法则,句子的Bigram模型概率为:
P(我 爱 北京 天安门) = P(我|<s>) * P(爱|我) * P(北京|爱) * P(天安门|北京)
将上述公式带入计算得到:
P(我 爱 北京 天安门) = [(1 + 1) / (2 + V)] * [(1 + 1) / (1 + V)] * [(1 + 1) / (1 + V)] * [(1 + 1) / (1 + V)]
注:由于训练语料库的大小未知,因此无法计算具体概率值。
相关推荐
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)