在右侧编辑器中的 Begin-End 之间补充 Python 代码,实现精确匹配模式分词和搜索引擎模型分词,完成对所输入的文本进行分词,并输出分词结果,其中文本内容通过 input 从后台获取。 测试说明 平台将使用测试集运行你编写的程序代码,若全部的运行结果正确,则通关。 测试输入: 我来自北京清华大学 预期输出: Building prefix dict from the default dictionary ... Dumping model to file cache /tmp/jieba.cache Loading model cost 1.252 seconds. Prefix dict has been built successfully. # Jieba接口的附加信息,说明分词过程的结果 精确模式:我/来自/北京/清华大学 搜索引擎模式:我 /来自 /北京 /清华 /华大 用python写
时间: 2024-02-26 15:51:43 浏览: 151
HMM实现中文分词python实现作业
import jieba
# 获取输入文本
text = input()
# 精确模式分词
seg_list = jieba.cut(text, cut_all=False)
print("精确模式:" + "/".join(seg_list))
# 搜索引擎模式分词
seg_list = jieba.cut_for_search(text)
print("搜索引擎模式:" + "/".join(seg_list))
阅读全文