几行代码教你使用python制作词云(二)
上一篇文章已经给大家介绍了中文词云的简单制作,本章我将引入一个新的知识点——jieba中分分词,它能给文章的长句子分成一个一个的词语,变得更关键。
1.准备数据
我这里的数据还是上一篇的我不是药神的影评数据
2.代码分析
导入词云制作库和中分分词jieba库(安装方法就不介绍了)
#导入词云制作库和中分分词jieba库
import jieba
import wordcloud
构建词云对象
#构建词云对象
w = wordcloud.WordCloud(width=1000,
height=700,
background_color='white',
font_path='msyh.ttc')
对文件进行结巴分词(高级一点的可以添加停用词,如果大家需要,后续写停用词的详细用法)
#对文件进行结巴分词
file = open('./data/WordCloud.txt',encoding='utf-8') #载入数据
text = file.read()
textlist = jieba.lcut(text)
str = " ".join(textlist)
将str传入geerate()方法
#将str传入geerate()方法
w.generate(str)
将词云效果图导出
#将词云效果图导出
w.to_file('./img/output3.png')
控制台显示图像
import matplotlib.pyplot as plt #绘图
plt.imshow(w , interpolation="bilinear")
plt.axis("off")
效果图
转载:https://blog.csdn.net/weixin_44857413/article/details/106456071
查看评论