本篇内容主要讲解“Python词云图怎么生成”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Python词云图怎么生成”吧!
代码示例
import jiebaprint(list(jieba.cut("自然语言是计算机科学领域与人工智能领域中的一个重要方向。")))
代码运行结果如下,实现了将每一条语句进行分词处理。
#读入文本with open(r"C:\Users\shangtianqiang\Desktop\实验文本.txt" ,encoding="utf-8")as file: text=file.read() print(text)
#文本分词wordlist_jieba=jieba.cut(text)space_wordlist=" ".join(wordlist_jieba)print(space_wordlist)
对于语句成功分词后,就可以定义分词函数,这个在后文会用到。
#文本分词def chinese_jieba(text): wordlist_jieba=jieba.cut(text) space_wordlist=" ".join(wordlist_jieba) return space_wordlistspace_wordlist
from wordcloud import WordCloud
#读取文本内容
with open(r"C:\Users\shangtianqiang\Desktop\实验文本.txt" ,encoding="utf-8")as file:
text=file.read()
#设置词云的背景颜色、宽高、字数
wordcloud=WordCloud(font_path="C:/Windows/Fonts/simfang.ttf",background_color="white",width=600,height=300,max_words=30).generate(text)
#生成图片
image=wordcloud.to_image()
#显示图片
image.show()
# 将文本进行分词,并添加图片背景
from wordcloud import WordCloud
import jieba
import numpy
import PIL.Image as Image
#将字符串切分
def chinese_jieba(text):
wordlist_jieba=jieba.cut(text)
space_wordlist=" ".join(wordlist_jieba)
return space_wordlist
#读取文本内容
with open(r"C:\Users\shangtianqiang\Desktop\实验文本.txt" ,encoding="utf-8")as file:
text=file.read()
text=chinese_jieba(text)
#这里需要自己导入一张图片作为背景图片
mask_pic=numpy.array(Image.open(r"C:\Users\shangtianqiang\Desktop\图片1.png"))
#将参数mask设值为:mask_pic
wordcloud = WordCloud(font_path="C:/Windows/Fonts/simfang.ttf",background_color="white",width=600,height=300,max_words=30,mask=mask_pic).generate(text)
#生成图片
image=wordcloud.to_image()
#显示图片
image.show()
这里所显示的词云结果并不直观,通过改变我们的背景图,以及将实验的文本词变得更加单一,多多调试几次,即可得出如下的结果。
到此,相信大家对“Python词云图怎么生成”有了更深的了解,不妨来实际操作一番吧!这里是亿速云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。