nltk.word tokenize
如何用Python中的NLTK对中文进行分析和处理 一、NLTK进行分词用到的函数:nltk.sent_tokenize(text)#对文本按照句子进行分割nltk.word_tokenize(sent)#对句子进行分词二、NLTK进行词性标注用到的...
用户登录
还没有账号?立即注册
用户注册
投稿取消
文章分类: |
|
还能输入300字
上传中....