记录生活中的点点滴滴

0%

词云小案例

这些天一直在学Python数据分析,昨天晚上做了一个词云的小案例,特来记录一下

我去我的QQ空间把我2020年九个月发的说说的文字全部复制到我的一个txt文件中,准备用Python做一个词云图片

主要利用一下三个组件:

  1. jieba :目前最好的 Python 中文分词组件
  2. wordcloud :优秀的词云第三方库
  3. matplotlib.pyplot : 风格命令的画图函数集合

代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
import jieba
import wordcloud
import matplotlib.pyplot as plt
#词库文件、停用词表、字体文件的路径
word_path = 'D://桌面//Python//word.txt'
ting_path = 'D://桌面//Python//停用词表.txt'
font_path = 'D://桌面//Python//font2.TTF'
#读取word文件
f = open(word_path, 'r',encoding='utf-8')
words = f.read()
#切割word
cut_words = jieba.lcut(words,cut_all=False)
#读取停用词表
ting_path = open(ting_path,encoding='utf-8')
stop_words = ting_path.read()
#删除停用词表的一些词重新生成的新数据
new_data = []
for word in cut_words:
if word not in stop_words:
new_data.append(word)
#生成词云
txt = " ".join(new_data)
w = wordcloud.WordCloud(width=2000, height=1400,background_color="white",font_path=font_path)
w.generate(txt)
#用plt显示图片
plt.imshow(w)
plt.axis('off')
plt.show()
#保存图片到本地
w.to_file('11.jpg')