<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
在使用爬蟲的時候,很多網站都有一定的反爬措施,甚至在爬取大量的資料或者頻繁地存取該網站多次時還可能面臨ip被禁,所以這個時候我們通常就可以找一些代理ip來繼續爬蟲測試。
下面就開始來簡單地介紹一下爬取免費的代理ip來搭建自己的代理ip池:本次爬取免費ip代理的網址:http://www.ip3366.net/free/
提示:以下是本篇文章正文內容,下面案例可供參考
在傳送請求的時候,通常都會做一個簡單的反爬。這時可以用fake_useragent模組來設定一個請求頭,用來進行偽裝成瀏覽器,下面兩種方法都可以。
from fake_useragent import UserAgent headers = { # 'User-Agent': UserAgent().random #常見瀏覽器的請求頭偽裝(如:火狐,谷歌) 'User-Agent': UserAgent().Chrome #谷歌瀏覽器 }
response = requests.get(url='http://www.ip3366.net/free/', headers=request_header()) # text = response.text.encode('ISO-8859-1') # print(text.decode('gbk'))
我們只需要解析出ip、port即可。
使用xpath解析(個人很喜歡用)(當然還有很多的解析方法,如:正則,css選擇器,BeautifulSoup等等)。
#使用xpath解析,提取出資料ip,埠 html = etree.HTML(response.text) tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr') for td in tr_list: ip_ = td.xpath('./td[1]/text()')[0] #ip port_ = td.xpath('./td[2]/text()')[0] #埠 proxy = ip_ + ':' + port_ #115.218.5.5:9000
#構建代理ip proxy = ip + ':' + port proxies = { "http": "http://" + proxy, "https": "http://" + proxy, # "http": proxy, # "https": proxy, } try: response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #設定timeout,使響應等待1s response.close() if response.status_code == 200: print(proxy, ' 33[31m可用 33[0m') else: print(proxy, '不可用') except: print(proxy,'請求異常')
import requests #匯入模組 from lxml import etree from fake_useragent import UserAgent #簡單的反爬,設定一個請求頭來偽裝成瀏覽器 def request_header(): headers = { # 'User-Agent': UserAgent().random #常見瀏覽器的請求頭偽裝(如:火狐,谷歌) 'User-Agent': UserAgent().Chrome #谷歌瀏覽器 } return headers ''' 建立兩個列表用來存放代理ip ''' all_ip_list = [] #用於存放從網站上抓取到的ip usable_ip_list = [] #用於存放通過檢測ip後是否可以使用 #傳送請求,獲得響應 def send_request(): #爬取7頁,可自行修改 for i in range(1,8): print(f'正在抓取第{i}頁……') response = requests.get(url=f'http://www.ip3366.net/free/?page={i}', headers=request_header()) text = response.text.encode('ISO-8859-1') # print(text.decode('gbk')) #使用xpath解析,提取出資料ip,埠 html = etree.HTML(text) tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr') for td in tr_list: ip_ = td.xpath('./td[1]/text()')[0] #ip port_ = td.xpath('./td[2]/text()')[0] #埠 proxy = ip_ + ':' + port_ #115.218.5.5:9000 all_ip_list.append(proxy) test_ip(proxy) #開始檢測獲取到的ip是否可以使用 print('抓取完成!') print(f'抓取到的ip個數為:{len(all_ip_list)}') print(f'可以使用的ip個數為:{len(usable_ip_list)}') print('分別有:n', usable_ip_list) #檢測ip是否可以使用 def test_ip(proxy): #構建代理ip proxies = { "http": "http://" + proxy, "https": "http://" + proxy, # "http": proxy, # "https": proxy, } try: response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #設定timeout,使響應等待1s response.close() if response.status_code == 200: usable_ip_list.append(proxy) print(proxy, ' 33[31m可用 33[0m') else: print(proxy, '不可用') except: print(proxy,'請求異常') if __name__ == '__main__': send_request()
到此這篇關於Python爬蟲實現搭建代理ip池的文章就介紹到這了,更多相關Python代理ip池內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45