温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Python jieba中文分词与词频统计的操作案例

发布时间:2021-03-09 13:53:30 来源:亿速云 阅读:237 作者:小新 栏目:开发技术

这篇文章给大家分享的是有关Python jieba中文分词与词频统计的操作案例的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

Python主要用来做什么

Python主要应用于:1、Web开发;2、数据科学研究;3、网络爬虫;4、嵌入式应用开发;5、游戏开发;6、桌面应用开发。

直接看代码吧:

#! python3
# -*- coding: utf-8 -*-
import os, codecs
import jieba
from collections import Counter
 
def get_words(txt):
 seg_list = jieba.cut(txt)
 c = Counter()
 for x in seg_list:
  if len(x)>1 and x != '\r\n':
   c[x] += 1
 print('常用词频度统计结果')
 for (k,v) in c.most_common(100):
  print('%s%s %s %d' % (' '*(5-len(k)), k, '*'*int(v/3), v))
 
if __name__ == '__main__':
 with codecs.open('19d.txt', 'r', 'utf8') as f:
  txt = f.read()
 get_words(txt)

样本:十九大报告全文

常用词频度统计结果
  发展 ********************************************************************** 212
  中国 ******************************************************** 168
  人民 **************************************************** 157
  建设 ************************************************* 148
 社会主义 ************************************************ 146
  坚持 ******************************************* 130
  国家 ****************************** 90
  全面 ***************************** 88
  制度 *************************** 83
  实现 *************************** 83
  推进 *************************** 81
  政治 ************************** 80
  社会 ************************** 80
  特色 ************************** 79
  加强 *********************** 71
  体系 ********************** 68
  文化 ********************** 66
  我们 ********************* 64
  时代 ********************* 63
  必须 ******************** 61
  经济 ******************* 59
  伟大 ******************* 58
  完善 ***************** 51
  我国 **************** 50
  推动 *************** 47
 现代化 *************** 47
  安全 *************** 46
  更加 ************** 44
  民主 ************** 44

补充:jieba读取txt文档并进行分词、词频统计,输出词云图

代码实现

# 库的引用
import jieba
import matplotlib as mpl
import matplotlib.pyplot as plt
from wordcloud import WordCloud
#定义一个空字符串
final = ""
#文件夹位置
filename = r"D:\python\pra\推荐系统1-500.txt"
 
#打开文件夹,读取内容,并进行分词
with open(filename,'r',encoding = 'utf-8') as f:
  for line in f.readlines():
    word = jieba.cut(line)
    for i in word:
      final = final + i +" "

运行结果

Python jieba中文分词与词频统计的操作案例

# 图云打印
word_pic = WordCloud(font_path = r'C:\Windows\Fonts\simkai.ttf',width = 2000,height = 1000).generate(final)
plt.imshow(word_pic)
#去掉坐标轴
plt.axis('off')
#保存图片到相应文件夹
plt.savefig(r'D:\python\pra\6.png')

图云输出图

Python jieba中文分词与词频统计的操作案例

感谢各位的阅读!关于“Python jieba中文分词与词频统计的操作案例”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI