这篇文章给大家分享的是有关Python jieba中文分词与词频统计的操作案例的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
Python主要应用于:1、Web开发;2、数据科学研究;3、网络爬虫;4、嵌入式应用开发;5、游戏开发;6、桌面应用开发。
直接看代码吧:
#! python3
# -*- coding: utf-8 -*-
import os, codecs
import jieba
from collections import Counter
def get_words(txt):
seg_list = jieba.cut(txt)
c = Counter()
for x in seg_list:
if len(x)>1 and x != '\r\n':
c[x] += 1
print('常用词频度统计结果')
for (k,v) in c.most_common(100):
print('%s%s %s %d' % (' '*(5-len(k)), k, '*'*int(v/3), v))
if __name__ == '__main__':
with codecs.open('19d.txt', 'r', 'utf8') as f:
txt = f.read()
get_words(txt)
样本:十九大报告全文
常用词频度统计结果
发展 ********************************************************************** 212
中国 ******************************************************** 168
人民 **************************************************** 157
建设 ************************************************* 148
社会主义 ************************************************ 146
坚持 ******************************************* 130
国家 ****************************** 90
全面 ***************************** 88
制度 *************************** 83
实现 *************************** 83
推进 *************************** 81
政治 ************************** 80
社会 ************************** 80
特色 ************************** 79
加强 *********************** 71
体系 ********************** 68
文化 ********************** 66
我们 ********************* 64
时代 ********************* 63
必须 ******************** 61
经济 ******************* 59
伟大 ******************* 58
完善 ***************** 51
我国 **************** 50
推动 *************** 47
现代化 *************** 47
安全 *************** 46
更加 ************** 44
民主 ************** 44
补充:jieba读取txt文档并进行分词、词频统计,输出词云图
代码实现
# 库的引用
import jieba
import matplotlib as mpl
import matplotlib.pyplot as plt
from wordcloud import WordCloud
#定义一个空字符串
final = ""
#文件夹位置
filename = r"D:\python\pra\推荐系统1-500.txt"
#打开文件夹,读取内容,并进行分词
with open(filename,'r',encoding = 'utf-8') as f:
for line in f.readlines():
word = jieba.cut(line)
for i in word:
final = final + i +" "
运行结果
# 图云打印
word_pic = WordCloud(font_path = r'C:\Windows\Fonts\simkai.ttf',width = 2000,height = 1000).generate(final)
plt.imshow(word_pic)
#去掉坐标轴
plt.axis('off')
#保存图片到相应文件夹
plt.savefig(r'D:\python\pra\6.png')
图云输出图
感谢各位的阅读!关于“Python jieba中文分词与词频统计的操作案例”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!
亿速云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。