Python jieba 中文分词与词频统计的操作

作者:方工 时间:2022-08-31 17:08:14 

我就废话不多说了,大家还是直接看代码吧~


#! python3
# -*- coding: utf-8 -*-
import os, codecs
import jieba
from collections import Counter

def get_words(txt):
seg_list = jieba.cut(txt)
c = Counter()
for x in seg_list:
 if len(x)>1 and x != '\r\n':
  c[x] += 1
print('常用词频度统计结果')
for (k,v) in c.most_common(100):
 print('%s%s %s %d' % (' '*(5-len(k)), k, '*'*int(v/3), v))

if __name__ == '__main__':
with codecs.open('19d.txt', 'r', 'utf8') as f:
 txt = f.read()
get_words(txt)

样本:十九大报告全文


常用词频度统计结果
 发展 ********************************************************************** 212
 中国 ******************************************************** 168
 人民 **************************************************** 157
 建设 ************************************************* 148
社会主义 ************************************************ 146
 坚持 ******************************************* 130
 国家 ****************************** 90
 全面 ***************************** 88
 制度 *************************** 83
 实现 *************************** 83
 推进 *************************** 81
 政治 ************************** 80
 社会 ************************** 80
 特色 ************************** 79
 加强 *********************** 71
 体系 ********************** 68
 文化 ********************** 66
 我们 ********************* 64
 时代 ********************* 63
 必须 ******************** 61
 经济 ******************* 59
 伟大 ******************* 58
 完善 ***************** 51
 我国 **************** 50
 推动 *************** 47
现代化 *************** 47
 安全 *************** 46
 更加 ************** 44
 民主 ************** 44

补充:jieba读取txt文档并进行分词、词频统计,输出词云图

代码实现


# 库的引用
import jieba
import matplotlib as mpl
import matplotlib.pyplot as plt
from wordcloud import WordCloud
#定义一个空字符串
final = ""
#文件夹位置
filename = r"D:\python\pra\推荐系统1-500.txt"

#打开文件夹,读取内容,并进行分词
with open(filename,'r',encoding = 'utf-8') as f:
 for line in f.readlines():
   word = jieba.cut(line)
   for i in word:
     final = final + i +" "

运行结果

Python jieba 中文分词与词频统计的操作


# 图云打印
word_pic = WordCloud(font_path = r'C:\Windows\Fonts\simkai.ttf',width = 2000,height = 1000).generate(final)
plt.imshow(word_pic)
#去掉坐标轴
plt.axis('off')
#保存图片到相应文件夹
plt.savefig(r'D:\python\pra\6.png')

图云输出图

Python jieba 中文分词与词频统计的操作

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。如有错误或未考虑完全的地方,望不吝赐教。

来源:https://blog.csdn.net/onestab/article/details/78307765

标签:Python,jieba,分词
0
投稿

猜你喜欢

  • Python机器学习之实现模型持久化与加载

    2022-06-06 14:24:13
  • Golang Http请求返回结果处理

    2024-04-30 10:01:01
  • Django接收post前端返回的json格式数据代码实现

    2022-09-30 22:21:22
  • 在Django的模型中添加自定义方法的示例

    2021-12-07 17:14:58
  • GoJs的文本绘图模板TextBlock使用实例

    2023-08-26 16:01:00
  • JDBC如何获取数据库连接

    2024-01-23 05:53:50
  • oracle学习笔记(三)

    2012-01-05 19:28:42
  • Go gRPC服务proto数据验证进阶教程

    2024-03-20 16:54:54
  • Python的垃圾回收机制详解

    2023-06-03 16:03:24
  • 解决golang json解析出现值为空的问题

    2024-04-27 15:27:58
  • xhtml+css页面制作过程中问题的解决方案

    2008-08-05 18:00:00
  • Windows和夜神模拟器上抓包程序mitmproxy的安装使用详解

    2023-11-15 12:29:21
  • Python 实现图像特效中的油画效果

    2021-04-10 18:29:49
  • 对python中xlsx,csv以及json文件的相互转化方法详解

    2021-01-28 23:24:34
  • 解决IOS端微信H5页面软键盘弹起后页面下方留白的问题

    2024-04-27 15:47:30
  • SQLServer2019 数据库环境搭建与使用的实现

    2024-01-16 12:45:48
  • python把转列表为集合的方法

    2021-06-03 07:28:41
  • 使用JS+XML(数据岛)实现分页)

    2005-08-18 00:46:06
  • python 实现识别图片上的数字

    2021-06-17 13:09:31
  • MySQL存储过程使用实例详解

    2024-01-26 09:12:07
  • asp之家 网络编程 m.aspxhome.com