<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
本次要抓取的目標站點為:中介網,這個網站提供了網站排行榜、網際網路網站排行榜、中文網站排行榜等資料。
網站展示的樣本資料量是 :58341。
採集頁面地址為 https://www.zhongjie.com/top/rank_all_1.html
,
UI如下所示:
由於頁面存在一個【尾頁】超連結,所以直接通過該超連結獲取累計頁面即可。
其餘頁面遵循簡單分頁規則:
https://www.zhongjie.com/top/rank_all_1.html https://www.zhongjie.com/top/rank_all_2.html
基於此,本次Python爬蟲的解決方案如下,頁面請求使用 requests
庫,頁面解析使用 lxml
,多執行緒使用 threading
模組,佇列依舊採用 queue
模組。
在正式編碼前,先通過一張圖將邏輯進行梳理。
本爬蟲編寫步驟文字描述如下:
總頁碼的生成程式碼非常簡單
def get_total_page(): # get_headers() 函數,可參考開原始碼分享資料 res = requests.get( 'https://www.zhongjie.com/top/rank_all_1.html', headers=get_headers(), timeout=5) element = etree.HTML(res.text) last_page = element.xpath("//a[@class='weiye']/@href")[0] pattern = re.compile('(d+)') page = pattern.search(last_page) return int(page.group(1))
總頁碼生成完畢,就可以進行多執行緒相關編碼,本案例未編寫儲存部分程式碼,留給你自行完成啦,
完整程式碼如下所示:
from queue import Queue import time import threading import requests from lxml import etree import random import re def get_headers(): uas = [ "Mozilla/5.0 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)", "Mozilla/5.0 (compatible; Baiduspider-render/2.0; +http://www.baidu.com/search/spider.html)" ] ua = random.choice(uas) headers = { "user-agent": ua } return headers def get_total_page(): res = requests.get( 'https://www.zhongjie.com/top/rank_all_1.html', headers=get_headers(), timeout=5) element = etree.HTML(res.text) last_page = element.xpath("//a[@class='weiye']/@href")[0] pattern = re.compile('(d+)') page = pattern.search(last_page) return int(page.group(1)) # 生產者 def producer(): while True: # 取一個分類ID url = urls.get() urls.task_done() if url is None: break res = requests.get(url=url, headers=get_headers(), timeout=5) text = res.text element = etree.HTML(text) links = element.xpath('//a[@class="copyright_title"]/@href') for i in links: wait_list_urls.put("https://www.zhongjie.com" + i) # 消費者 def consumer(): while True: url = wait_list_urls.get() wait_list_urls.task_done() if url is None: break res = requests.get(url=url, headers=get_headers(), timeout=5) text = res.text element = etree.HTML(text) # 資料提取,更多資料提取,可自行編寫 xpath title = element.xpath('//div[@class="info-head-l"]/h1/text()') link = element.xpath('//div[@class="info-head-l"]/p[1]/a/text()') description = element.xpath('//div[@class="info-head-l"]/p[2]/text()') print(title, link, description) if __name__ == "__main__": # 初始化一個佇列 urls = Queue(maxsize=0) last_page = get_total_page() for p in range(1, last_page + 1): urls.put(f"https://www.zhongjie.com/top/rank_all_{p}.html") wait_list_urls = Queue(maxsize=0) # 開啟2個生產者執行緒 for p_in in range(1, 3): p = threading.Thread(target=producer) p.start() # 開啟2個消費者執行緒 for p_in in range(1, 2): p = threading.Thread(target=consumer) p.start()
到此這篇關於python利用多執行緒+佇列技術爬取中介網網際網路網站排行榜的文章就介紹到這了,更多相關python爬取網站排行榜內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45