开发

python使用jieba实现中文文档分词和去停用词

广告
广告

分词工具的选择:

  现在对于中文分词,分词工具有很多种,比如说: jieba分词、thulac、SnowNLP等。在这篇文档中,笔者使用的jieba分词,并且基于python3环境,选择jieba分词的理由是其比较简单易学,容易上手,并且分词效果还很不错。

分词前的准备:

待分词的中文文档

存放分词之后的结果文档

中文停用词文档(用于去停用词,在网上可以找到很多)

分词之后的结果呈现:

图 1   去停用词和分词前的中文文档

图 2去停用词和分词之后的结果文档

分词和去停用词代码实现:

我还没有学会写个人说明!

Oracle数据库不同损坏级别的恢复详解

上一篇

我当测试总监的那几年

下一篇

你也可能喜欢

python使用jieba实现中文文档分词和去停用词

长按储存图像,分享给朋友

ITPUB 每周精要将以邮件的形式发放至您的邮箱


微信扫一扫

微信扫一扫