Python统计词频并绘制图片(附完整代码)

效果



1 实现代码

读取txt文件:

def readText(text_file_path):
    with open(text_file_path, encoding='gbk') as f: #
        content = f.read()
    return content

得到文章的词频:

def getRecommondArticleKeyword(text_content,  key_word_need_num = 10, custom_words = [], stop_words =[], query_pattern = 'searchEngine'):
    '''
    :param text_content: 文本字符串
    :param key_word_need_num: 需要的关键词数量
    :param custom_words: 自定义关键词
    :param stop_words: 不查询关键词
    :param query_pattern:
    precision:精确模式————试图将句子最精确地切开,适合文本分析;
    entire:全模式————把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
    searchEngine:搜索引擎模式————在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词;
    paddle模式————利用PaddlePaddle深度学习框架,训练序列标注(双向GRU)网络模型实现分词。同时支持词性标注。
    :return:
    '''
    # jieba.enable_paddle()
    # paddle.fluid.install_check.run_check()
    if not isinstance(text_content, str):
        raise ValueError('文本字符串类型错误!')
    if not isinstance(key_word_need_num, int):
        raise ValueError('关键词个数类型错误!')
    if not isinstance(custom_words, list):
        raise ValueError('自定义关键词类型错误!')
    if not isinstance(stop_words, list):
        raise ValueError('屏蔽关键词类型错误!')
    if not isinstance(query_pattern, str):
        raise ValueError('查询模式类型错误!')

    # 添加自定义关键词
    for word in custom_words:
        jieba.add_word(word)

    if query_pattern == 'searchEngine':
        key_words = jieba.cut_for_search(text_content)
    elif query_pattern == 'entire':
        key_words = jieba.cut(text_content, cut_all=True, use_paddle=True)
    elif query_pattern == 'precision':
        key_words = jieba.cut(text_content, cut_all=False, use_paddle=True)
    else:
        return []

    # print("拆分后的词: %s" % " ".join(key_words))

    # 过滤后的关键词
    stop_words = set(stop_words)
    word_count = Counter()
    for word in key_words:
        if len(word) > 1 and word not in stop_words:
            word_count[word] += 1

    # res_words = list()
    # for data in word_count.most_common(key_word_need_num):
    #     res_words.append(data[0])
    # return res_words

    return word_count

绘制图片:

def drawWordsCloud(word_count, save_img_filePath='', img_mask_filePath=''):
    # print(word_count)
    # print(type(word_count))

    if len(img_mask_filePath) != 0:
        img_mask = np.array(Image.open(img_mask_filePath)) #打开遮罩图片,将图片转换为数组
        wc = wordcloud.WordCloud(font_path='/Library/Fonts/Arial Unicode.ttf',# 设置中文字体,词云默认字体是“DroidSansMono.ttf字体库”,不支持中文
                                 background_color="white",  # 设置背景颜色
                                 max_words=200,  # 设置最大显示的字数
                                 max_font_size=50,  # 设置字体最大值
                                 random_state=30,  # 设置有多少种随机生成状态,即有多少种配色方案
                                 width=400,
                                 height=200,
                                 mask=img_mask
                                 )
    else:
        wc = wordcloud.WordCloud(font_path='/Library/Fonts/Arial Unicode.ttf',# 设置中文字体,词云默认字体是“DroidSansMono.ttf字体库”,不支持中文
                                 background_color="white",  # 设置背景颜色
                                 max_words=200,  # 设置最大显示的字数
                                 max_font_size=50,  # 设置字体最大值
                                 random_state=30,  # 设置有多少种随机生成状态,即有多少种配色方案
                                 width=400,
                                 height=200
                                 )
    # 绘图
    wc.generate_from_frequencies(word_count)   #从字典生成词云
    plt.imshow(wc)      #显示词云
    plt.axis('off')     #关闭坐标轴
    plt.show()          #显示图像

    # 保存图片
    if len(save_img_filePath) != 0:
        wc.to_file(save_img_filePath)
    else:
        pass

2 完整代码

#-*- coding : utf-8-*-
import jieba
from collections import Counter
import paddle

import wordcloud    #词云展示库
import matplotlib.pyplot as plt     #图像展示库

import time

from PIL import Image
import numpy as np

def timer(func):
    def calculateTime(*args, **kwargs):
        t = time.perf_counter()
        result = func(*args, **kwargs)
        print(f'func {func.__name__} coast time:{time.perf_counter() - t:.8f} s')
        return result
    return calculateTime

def readText(text_file_path):
    with open(text_file_path, encoding='gbk') as f: #
        content = f.read()
    return content

@timer
def getRecommondArticleKeyword(text_content,  key_word_need_num = 10, custom_words = [], stop_words =[], query_pattern = 'searchEngine'):
    '''
    :param text_content: 文本字符串
    :param key_word_need_num: 需要的关键词数量
    :param custom_words: 自定义关键词
    :param stop_words: 不查询关键词
    :param query_pattern:
    precision:精确模式————试图将句子最精确地切开,适合文本分析;
    entire:全模式————把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
    searchEngine:搜索引擎模式————在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词;
    paddle模式————利用PaddlePaddle深度学习框架,训练序列标注(双向GRU)网络模型实现分词。同时支持词性标注。
    :return:
    '''
    # jieba.enable_paddle()
    # paddle.fluid.install_check.run_check()
    if not isinstance(text_content, str):
        raise ValueError('文本字符串类型错误!')
    if not isinstance(key_word_need_num, int):
        raise ValueError('关键词个数类型错误!')
    if not isinstance(custom_words, list):
        raise ValueError('自定义关键词类型错误!')
    if not isinstance(stop_words, list):
        raise ValueError('屏蔽关键词类型错误!')
    if not isinstance(query_pattern, str):
        raise ValueError('查询模式类型错误!')

    # 添加自定义关键词
    for word in custom_words:
        jieba.add_word(word)

    if query_pattern == 'searchEngine':
        key_words = jieba.cut_for_search(text_content)
    elif query_pattern == 'entire':
        key_words = jieba.cut(text_content, cut_all=True, use_paddle=True)
    elif query_pattern == 'precision':
        key_words = jieba.cut(text_content, cut_all=False, use_paddle=True)
    else:
        return []

    # print("拆分后的词: %s" % " ".join(key_words))

    # 过滤后的关键词
    stop_words = set(stop_words)
    word_count = Counter()
    for word in key_words:
        if len(word) > 1 and word not in stop_words:
            word_count[word] += 1

    # res_words = list()
    # for data in word_count.most_common(key_word_need_num):
    #     res_words.append(data[0])
    # return res_words

    return word_count

def drawWordsCloud(word_count, save_img_filePath='', img_mask_filePath=''):
    # print(word_count)
    # print(type(word_count))

    if len(img_mask_filePath) != 0:
        img_mask = np.array(Image.open(img_mask_filePath)) #打开遮罩图片,将图片转换为数组
        wc = wordcloud.WordCloud(font_path='/Library/Fonts/Arial Unicode.ttf',# 设置中文字体,词云默认字体是“DroidSansMono.ttf字体库”,不支持中文
                                 background_color="white",  # 设置背景颜色
                                 max_words=200,  # 设置最大显示的字数
                                 max_font_size=50,  # 设置字体最大值
                                 random_state=30,  # 设置有多少种随机生成状态,即有多少种配色方案
                                 width=400,
                                 height=200,
                                 mask=img_mask
                                 )
    else:
        wc = wordcloud.WordCloud(font_path='/Library/Fonts/Arial Unicode.ttf',# 设置中文字体,词云默认字体是“DroidSansMono.ttf字体库”,不支持中文
                                 background_color="white",  # 设置背景颜色
                                 max_words=200,  # 设置最大显示的字数
                                 max_font_size=50,  # 设置字体最大值
                                 random_state=30,  # 设置有多少种随机生成状态,即有多少种配色方案
                                 width=400,
                                 height=200
                                 )
    # 绘图
    wc.generate_from_frequencies(word_count)   #从字典生成词云
    plt.imshow(wc)      #显示词云
    plt.axis('off')     #关闭坐标轴
    plt.show()          #显示图像

    # 保存图片
    if len(save_img_filePath) != 0:
        wc.to_file(save_img_filePath)
    else:
        pass

if __name__ == '__main__':
    pass
    # /Users/mac/Downloads/work/retailSoftware/公司项目/test.txt
    text_file_path = "/Users/mac/Downloads/电子书/编程思想/相约星期二/相约星期二.txt"
    # text_file_path = "/Users/mac/Downloads/work/retailSoftware/公司项目/test3.txt"
    text_content = readText(text_file_path)
    # print(text_content)
    # print(JNI_API_getRecommondArticleKeyword(text_content))
    img_mask_filePath = '/Users/mac/Desktop/截屏2021-08-20 下午4.02.10.png'
    img_save_filePath = '/Users/mac/Downloads/test9.png'
    drawWordsCloud(getRecommondArticleKeyword(text_content), img_save_filePath, img_mask_filePath)

到此这篇关于Python统计词频并绘制图片(附完整代码)的文章就介绍到这了,更多相关Python统计词频绘制图片内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • Python开发的单词频率统计工具wordsworth使用方法

    使用方法: python wordsworth --filename textfile.txt python wordsworth -f textfile.txt 分析结果: 附上github项目地址:https://github.com/autonomoid/wordsworth

  • python 文本单词提取和词频统计的实例

    这些对文本的操作经常用到, 那我就总结一下. 陆续补充... 操作: strip_html(cls, text) 去除html标签 separate_words(cls, text, min_lenth=3) 文本提取 get_words_frequency(cls, words_list) 获取词频 源码: class DocProcess(object): @classmethod def strip_html(cls, text): """ Delete html ta

  • Python实现统计英文文章词频的方法分析

    本文实例讲述了Python实现统计英文文章词频的方法.分享给大家供大家参考,具体如下: 应用介绍: 统计英文文章词频是很常见的需求,本文利用python实现. 思路分析: 1.把英文文章的每个单词放到列表里,并统计列表长度: 2.遍历列表,对每个单词出现的次数进行统计,并将结果存储在字典中: 3.利用步骤1中获得的列表长度,求出每个单词出现的频率,并将结果存储在频率字典中: 4.以字典键值对的"值"为标准,对字典进行排序,输出结果(也可利用切片输出频率最大或最小的特定几个,因为经过排序

  • python实现简单中文词频统计示例

    本文介绍了python实现简单中文词频统计示例,分享给大家,具体如下: 任务 简单统计一个小说中哪些个汉字出现的频率最高 知识点 1.文件操作 2.字典 3.排序 4.lambda 代码 import codecs import matplotlib.pyplot as plt from pylab import mpl mpl.rcParams['font.sans-serif'] = ['FangSong'] # 指定默认字体 mpl.rcParams['axes.unicode_minus

  • python写程序统计词频的方法

    在李笑来所著<时间当作朋友>中有这么一段: 可问题在于,当年我在少年宫学习计算机程序语言的时候,怎么可能想象得到,在20多年后的某一天,我需要先用软件调取语料库中的数据,然后用统计方法为每个单词标注词频,再写一个批处理程序从相应的字典里复制出多达20MB的内容,重新整理-- 在新书<自学是门手艺>中,他再次提及: 又过了好几年,我去新东方教书.2003 年,在写词汇书的过程中,需要统计词频,C++ 倒是用不上,用之前学过它的经验,学了一点 Python,写程序统计词频 --<

  • python利用多种方式来统计词频(单词个数)

    python的思维就是让我们用尽可能少的代码来解决问题.对于词频的统计,就代码层面而言,实现的方式也是有很多种的.之所以单独谈到统计词频这个问题,是因为它在统计和数据挖掘方面经常会用到,尤其是处理分类问题上.故在此做个简单的记录. 统计的材料如下: document = [ 'look', 'into', 'my', 'eyes', 'look', 'into', 'my', 'eyes', 'the', 'eyes', 'the', 'eyes', 'the', 'eyes', 'not',

  • python jieba分词并统计词频后输出结果到Excel和txt文档方法

    前两天,班上同学写论文,需要将很多篇论文题目按照中文的习惯分词并统计每个词出现的频率. 让我帮她实现这个功能,我在网上查了之后发现jieba这个库还挺不错的. 运行环境: 安装python2.7.13:https://www.python.org/downloads/release/python-2713/ 安装jieba:pip install jieba 安装xlwt:pip install xlwt 具体代码如下: #!/usr/bin/python # -*- coding:utf-8

  • Python统计词频并绘制图片(附完整代码)

    效果 1 实现代码 读取txt文件: def readText(text_file_path): with open(text_file_path, encoding='gbk') as f: # content = f.read() return content 得到文章的词频: def getRecommondArticleKeyword(text_content, key_word_need_num = 10, custom_words = [], stop_words =[], quer

  • 用python画个奥运五环(附完整代码)

    完整代码 #绘制奥运五环 import turtle #导入turtle包 turtle.width(15) #定义线条宽度为15 turtle.color("red") turtle.circle(50) turtle.penup() #定义颜色,园半径,抬笔 turtle.goto(120,0) turtle.pendown() #定义线条走向,落笔 turtle.color("green") turtle.circle(50) turtle.penup() t

  • 用python写一个福字(附完整代码)

    目录 前言: 一,扫五福活动如此火爆,为何不自己利用编程来生成福字! 二,完整代码 三,总结 前言: 支付宝 2022 集五福活动正式开启 数据显示,过去六年累计参与支付宝集五福的人数已经超过了 7 亿,每 2 个中国人里就有 1 个曾扫福.集福.送福. 一,扫五福活动如此火爆,为何不自己利用编程来生成福字! 首先作品奉上: ①,导入python库 import io from PIL import Image import requests ②,利用爬虫,获取单个汉字 def get_word

  • 用python写一个福字(附完整代码)

    目录 前言: 一,扫五福活动如此火爆,为何不自己利用编程来生成福字! 二,完整代码 三,总结 前言: 支付宝 2022 集五福活动正式开启 数据显示,过去六年累计参与支付宝集五福的人数已经超过了 7 亿,每 2 个中国人里就有 1 个曾扫福.集福.送福. 一,扫五福活动如此火爆,为何不自己利用编程来生成福字! 首先作品奉上: ①,导入python库 import io from PIL import Image import requests ②,利用爬虫,获取单个汉字 def get_word

  • 用python画个奥运五环(附完整代码)

    完整代码 #绘制奥运五环 import turtle #导入turtle包 turtle.width(15) #定义线条宽度为15 turtle.color("red") turtle.circle(50) turtle.penup() #定义颜色,园半径,抬笔 turtle.goto(120,0) turtle.pendown() #定义线条走向,落笔 turtle.color("green") turtle.circle(50) turtle.penup() t

  • python+matplotlib实现动态绘制图片实例代码(交互式绘图)

    本文研究的主要是python+matplotlib实现动态绘制图片(交互式绘图)的相关内容,具体介绍和实现代码如下所示. 最近在研究动态障碍物避障算法,在Python语言进行算法仿真时需要实时显示障碍物和运动物的当前位置和轨迹,利用Anaconda的Python打包集合,在Spyder中使用Python3.5语言和matplotlib实现路径的动态显示和交互式绘图(和Matlab功能类似). Anaconda是一个用于科学计算的Python发行版,支持 Linux, Mac, Windows系统

  • python政策网字体反爬实例(附完整代码)

    目录 1 字体反爬案例 2 使用环境 3 安装python第三方库 4 查看woff文件 5 woff文件解决字体反爬全过程 5.1 调用第三方库 5.2 请求woff链接下载woff文件到本地 5.3 查看woff文件内容,可以通过以下两种方式 5.5 建立字体反爬后与圆字体间对应关系 5.6 得到结果 6 完整代码如下 总结 字体反爬,也是一种常见的反爬技术,这些网站采用了自定义的字体文件,在浏览器上正常显示,但是爬虫抓取下来的数据要么就是乱码,要么就是变成其他字符.下面我们通过其中一种方式

  • python政策网字体反爬实例(附完整代码)

    目录 1 字体反爬案例 2 使用环境 3 安装python第三方库 4 查看woff文件 5 woff文件解决字体反爬全过程 5.1 调用第三方库 5.2 请求woff链接下载woff文件到本地 5.3 查看woff文件内容,可以通过以下两种方式 5.5 建立字体反爬后与圆字体间对应关系 5.6 得到结果 6 完整代码如下 总结 字体反爬,也是一种常见的反爬技术,这些网站采用了自定义的字体文件,在浏览器上正常显示,但是爬虫抓取下来的数据要么就是乱码,要么就是变成其他字符.下面我们通过其中一种方式

  • Python统计文本词汇出现次数的实例代码

    问题描述 有时在遇到一个文本需要统计文本内词汇的次数 的时候 ,可以用一个简单的python程序来实现. 解决方案 首先需要的是一个文本文件(.txt)格式(文本内词汇以空格分隔),因为需要的是一个程序,所以要考虑如何将文件打开而不是采用复制粘贴的方式.这时就要用到open()的方式来打开文档,然后通过read()读取其中内容,再将词汇作为key,出现次数作为values存入字典. 图 1 txt文件内容 再通过open和read函数来读取文件: open_file=open("text.txt

  • JAVA实现用户抽奖功能(附完整代码)

    需求分析 1)实现三个基本功能:登录.注册.抽奖. 2)登录:用户输入账号密码进行登录,输入账号后会匹配已注册的用户,若输入用户不存在则退出,密码有三次输入机会,登录成功后主界面会显示已登录用户的账号信息. 3)注册:用户首先输入账号名称,系统查询此名称是否存在,如存在则请求用户换一个名称,否则进入密码输入,密码要求6位数字字符串,注册成功后,系统随机分配一个与已有用户不重复的四位数字id编号. 4)抽奖:功能实现前提:需有用户处于登录状态.该前提满足时,系统从已存在用户中随机抽取5位不同的用户

随机推荐