怎么用Python画出好看的词云图?

数据森麟

共 2422字,需浏览 5分钟

 ·

2020-02-02 23:23


641bfed86966b20ae242ca177e5ad348.webp


     作者:易执


     来源:Python读数


相信很多人在第一眼看到下面这些图时,都会被其牛逼的视觉效果所吸引,这篇文章就教大家怎么用Python画出这种图。

8d25217efcdffbaaa2f84f682156c8e1.webp
前期准备

上面的这种图叫做词云图,主要用途是将文本数据中出现频率较高关键词以可视化的形式展现出来,使人一眼就可以领略文本数据的主要表达意思。词云图中,词的大小代表了其词频,越大的字代表其出现频率更高。

那生成一张词云图的主要步骤有哪些?过程中又需要用到哪些Python库呢?

  1. 首先需要一份待分析的文本数据,由于文本数据都是一段一段的,所以第一步要将这些句子或者段落划分成词,这个过程称之为分词,需要用到Python中的分词库jieba

  2. 分词之后,就需要根据分词结果生成词云,这个过程需要用到wordcloud

  3. 最后需要将生成的词云展现出来,用到大家比较熟悉的matplotlib

理清了词云图绘制的主要脉络之后,下面就用代码操作起来。

小试牛刀

明天就过年了,所以我也特地去找了几首新年歌,将它们的歌词汇总起来作为本次展示用的文本数据,大家可以看看新年歌中哪些词的出现频率比较高。我们先绘制一个比较简单的词云图:

# 导入相应的库import jiebafrom wordcloud import WordCloudimport matplotlib.pyplot as plt
# 导入文本数据并进行简单的文本处理# 去掉换行符和空格text = open("./data/新年歌.txt",encoding='utf8').read()text = text.replace('\n',"").replace("\u3000","")
2ec9076580d14c4b7c737c1ef0eb5458.webp
# 分词,返回结果为词的列表text_cut = jieba.lcut(text)# 将分好的词用某个符号分割开连成字符串text_cut = ' '.join(text_cut)
9e514f95094d438761b6f0debf9965f5.webp
# 导入停词# 用于去掉文本中类似于'啊'、'你','我'之类的词stop_words = open("F:/NLP/chinese corpus/stopwords/stop_words_zh.txt",encoding="utf8").read().split("\n")
# 使用WordCloud生成词云word_cloud = WordCloud(font_path="simsun.ttc", # 设置词云字体 background_color="white", # 词云图的背景颜色 stopwords=stop_words) # 去掉的停词word_cloud.generate(text_cut)
# 运用matplotlib展现结果plt.subplots(figsize=(12,8))plt.imshow(word_cloud)plt.axis("off")
5f977cdb1fa9ac506d2373147f66d2dc.webp

一张简单的词云图就成功生成啦,但看起来好像并没有特别好看,怎么生成带特定形状的词云呢?

登堂入室

想生成带特定形状的词云,首先得准备一张该形状的图片,且除了目标形状外,其他地方都是空白的,如下面这张用于演示的图。

b464e09079638faac8114c86e5d57009.webp

上图中除了福字之外都是白色的,准备好之后就上代码

import jiebafrom wordcloud import WordCloudimport matplotlib.pyplot as pltfrom PIL import Image
text = open("./data/新年歌.txt",encoding='utf8').read()text = text.replace('\n',"").replace("\u3000","")text_cut = jieba.lcut(text)text_cut = ' '.join(text_cut)
stop_words = open("F:/NLP/chinese corpus/stopwords/stop_words_zh.txt",encoding="utf8").read().split("\n")
# 主要区别background = Image.open("./data/background.png")graph = np.array(background)
word_cloud = WordCloud(font_path="simsun.ttc", background_color="white", mask=graph, # 指定词云的形状 stopwords=stop_words)
word_cloud.generate(text_cut)plt.subplots(figsize=(12,8))plt.imshow(word_cloud)plt.axis("off")

代码部分和普通的图基本一致,区别在于要导入相应形状的图片,并在wordcloud设置了mask参数。

生成的词云图如下:

3b7c77fdac7890da0bcc5f79e018d448.webp

是不是还挺简单的,借这张图也祝福大家2020年都福气满满!


◆ ◆ ◆  ◆ 



长按二维码关注我们



数据森麟公众号的交流群已经建立,许多小伙伴已经加入其中,感谢大家的支持。大家可以在群里交流关于数据分析&数据挖掘的相关内容,还没有加入的小伙伴可以扫描下方管理员二维码,进群前一定要关注公众号奥,关注后让管理员帮忙拉进群,期待大家的加入。


管理员二维码:


猜你喜欢

 笑死人不偿命的知乎沙雕问题排行榜

 用Python扒出B站那些“惊为天人”的阿婆主!

 互联网大佬学历&背景大揭秘,看看是你的老乡还是校友

 上万条数据撕开微博热搜的真相!

 你相信逛B站也能学编程吗? 

浏览 55
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报