<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
詞頻統計是指在文字中計算每個詞出現的次數。
在 Python 中,可以使用一些第三方庫(如 jieba)來分詞,然後使用字典等資料結構記錄每個詞的詞頻。
Python中文詞頻統計知識點
安裝 jieba 庫
pip install jieba
使用 jieba.cut() 函數對中文文字進行分詞
import jieba text = "夢想橡皮擦的Python部落格很不錯" seg_list = jieba.cut(text) print(list(seg_list))
輸出結果:
['夢想', '橡皮擦', '的', 'Python', '部落格', '很', '不錯']
使用字典可以很方便地儲存每個詞語的詞頻
import jieba text = "夢想橡皮擦的Python部落格很不錯" seg_list = jieba.cut(text) # print(list(seg_list)) word_dict = {} for word in seg_list: print(word) if word in word_dict: word_dict[word] += 1 else: word_dict[word] = 1 print(word_dict)
再次整理Python詞頻統計的具體實現方法:
程式碼範例:
import jieba def get_word_frequency(text): seg_list = jieba.cut(text) word_dict = {} for word in seg_list: if word in word_dict: word_dict[word] += 1 else: word_dict[word] = 1 sorted_word_dict = sorted(word_dict.items(), key=lambda x: x[1], reverse=True) return sorted_word_dict text = "夢想橡皮擦的Python部落格很不錯" result = get_word_frequency(text) print(result)
在分詞時,通常會忽略一些詞語,這些詞語被稱為停用詞。如常用的助詞、介詞等。
在 Python 中,可以預先載入停用詞表,在分詞時,如果詞語是停用詞,則忽略。
下面是一個簡單的例子:
import jieba stop_words = set() with open("stop_words.txt", "r",encoding='utf-8') as f: for line in f: stop_words.add(line.strip()) text = "夢想橡皮擦的Python部落格很不錯" seg_list = jieba.cut(text) filtered_words = [word for word in seg_list if word not in stop_words] print(filtered_words)
“stop_words.txt” 檔案中是停用詞表,每行一個詞語。在程式碼中,通過 with open 語句讀取檔案,並將每個詞語加入到 stop_words 集合中。在分詞後,通過列表推導式,篩選出不是停用詞的詞語。檔案中的內容如下:
詞幹提取是將詞語的不同形式提取為同一詞幹的過程。例如 “running” 和 “runner” 可以被提取為 “run”。
在 Python 中,可以使用詞幹提取工具來進行詞幹提取,常見的詞幹提取工具有 nltk 庫的 PorterStemmer 和 SnowballStemmer 。
下面是一個簡單的例子:
import nltk from nltk.stem import SnowballStemmer stemmer = SnowballStemmer("english") words = ["run", "runner", "running"] stemmed_words = [stemmer.stem(word) for word in words] print(stemmed_words)
SnowballStemmer 函數的第一個引數是語言。 english 表示使用英語詞幹提取器。
其支援多種語言,可以指定不同的語言,以使用不同的詞幹提取器。例如,如果是法語文字,可以使用 SnowballStemmer("french") 。
stemmer.stem(word) 是 nltk 庫的 SnowballStemmer 函數的一個方法,用於提取詞幹。
詞雲圖是一種展示詞頻的視覺化圖形,其中詞語的大小代表詞頻的多少。
在 Python 中,可以使用詞雲庫 wordcloud 來生成詞雲圖。
以下是一個使用 wordcloud 庫建立詞雲圖的簡單範例:
from wordcloud import WordCloud import matplotlib.pyplot as plt text = "ca1 ca2 ca3 ca4 ca4 ca4" wordcloud = WordCloud(width=400, height=400, random_state=21, max_font_size=110).generate(text) plt.figure(figsize=(10, 5)) plt.imshow(wordcloud, interpolation="bilinear") plt.axis('off') plt.show()
首先使用 WordCloud 函數建立一個詞雲圖物件,並設定圖片的寬度、高度、隨機狀態、字型大小等引數。
然後,使用 generate() 方法生成詞雲圖,並將其作為引數傳遞給 matplotlib 的 imshow() 函數。
最後,使用 show() 方法顯示詞雲圖。
thulac:thulac 是一箇中文分詞庫,支援動態詞性標註。
snownlp:snownlp 是一個基於 SnowNLP 的中文自然語言處理庫,支援中文分詞、情感分析、關鍵詞提取等功能。
到此這篇關於一文帶你掌握Python中文詞頻統計的文章就介紹到這了,更多相關Python中文詞頻統計內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45