使用nltk进行分词怎么写代码
时间: 2024-05-02 22:23:22 浏览: 128
分词程序代码
4星 · 用户满意度95%
要使用nltk进行分词,需要先安装nltk库,并下载对应的分词器。下面是一个简单的代码示例来使用nltk进行分词:
```
import nltk
# 下载分词器和停用词表
nltk.download('punkt')
nltk.download('stopwords')
# 载入停用词表
stop_words = set(nltk.corpus.stopwords.words('english'))
# 分词函数
def tokenize(text):
tokens = nltk.word_tokenize(text)
tokens = [token.lower() for token in tokens if token.isalpha() and token.lower() not in stop_words]
return tokens
# 测试分词函数
text = "This is a sample sentence."
tokens = tokenize(text)
print(tokens)
```
在这个示例中,我们使用了nltk中的word_tokenize函数来将文本分成单词,并将所有单词转换成小写字母形式。然后我们使用nltk.corpus.stopwords.words函数来下载英语停用词表,并将其加载进一个set对象里供我们在tokenize函数中使用。最后,我们使用一个简单的列表推导式来过滤掉不是单词或是停用词的标点符号或其他字符。
阅读全文