nltk.sent_tokenize() nltk.word_tokenize()利用分句子,分词,

论坛 期权论坛 编程之家     
选择匿名的用户   2021-5-16 23:41   11   0

分词

nltk.sent_tokenize(text) #按句子分割
nltk.word_tokenize(sentence) #分词
nltk的分词是句子级别的,所以对于一篇文档首先要将文章按句子进行分割,然后句子进行分词
这里写图片描述

http://www.pythontip.com/blog/post/10012/

分享到 :
0 人收藏
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:3875789
帖子:775174
精华:0
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP