<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
Item管道的主要責任是負責處理有蜘蛛從網頁中抽取的Item,他的主要任務是清晰、驗證和儲存資料。
當頁面被蜘蛛解析後,將被傳送到Item管道,並經過幾個特定的次序處理資料。
每個Item管道的元件都是有一個簡單的方法組成的Python類。
他們獲取了Item並執行他們的方法,同時他們還需要確定的是是否需要在Item管道中繼續執行下一步或是直接丟棄掉不處理。
呼叫時間: 當Item在Spider中被收集之後,它將會被傳遞到Item Pipeline,一些元件會按照一定的順序執行對Item的處理。
必須實現以下方法:
process_item(self, item**,** spider**)**
每個item pipeline元件都需要呼叫該方法,這個方法必須返回一個具有資料的dict,或是 Item(或任何繼承類)物件, 或是丟擲 DropItem 異常,被丟棄的item將不會被之後的pipeline元件所處理。
引數:
open_spider(self, spider)
當spider被開啟時,這個方法被呼叫。引數:spider (Spider物件) – 被開啟的spider
from_crawler(cls,crawler)
如果存在,則呼叫該類方法以從中建立管道範例Crawler。它必須返回管道的新範例。搜尋器物件提供對所有Scrapy核心元件(如設定和訊號)的存取;這是管道存取它們並將其功能掛鉤到Scrapy中的一種方法。
close_spider(self, spider)
當spider被關閉時,這個方法被呼叫引數:spider (Spider物件) – 被關閉的spider
為了啟用一個Item Pipeline元件,你必須將它的類新增到 ITEM_PIPELINES 設定,就像下面這個例子:
ITEM_PIPELINES = { 'myproject.pipelines.PricePipeline': 300, 'myproject.pipelines.JsonWriterPipeline': 800, }
分配給每個類的整型值,確定了他們執行的順序,item按數位從低到高的順序,通過pipeline,通常將這些數位定義在0-1000範圍內。
以下pipeline將所有爬取到的item,儲存到一個獨立地items.json 檔案,每行包含一個序列化為'JSON'格式的'item':
import json class JsonWriterPipeline(object): def __init__(self): self.file = open('items.json', 'wb') def process_item(self, item, spider): line = json.dumps(dict(item),ensure_ascii=False) + "n" self.file.write(line) return item
在這裡優化:
以下pipeline將所有爬取到的item,儲存到一個獨立地items.json 檔案,每行包含一個序列化為'JSON'格式的'item':
import json import codecs class JsonWriterPipeline(object): def __init__(self): self.file = codecs.open('items.json', 'w', encoding='utf-8') def process_item(self, item, spider): line = json.dumps(dict(item), ensure_ascii=False) + "n" self.file.write(line) return item def spider_closed(self, spider): self.file.close()
針對spider裡面的utf-8編碼格式去掉.encode('utf-8')
item = RecruitItem() item['name']=name.encode('utf-8') item['detailLink']=detailLink.encode('utf-8') item['catalog']=catalog.encode('utf-8') item['recruitNumber']=recruitNumber.encode('utf-8') item['workLocation']=workLocation.encode('utf-8') item['publishTime']=publishTime.encode('utf-8')
from_crawler(cls, crawler)
如果使用,這類方法被呼叫建立爬蟲管道範例。必須返回管道的一個新範例。crawler提供存取所有Scrapy核心元件設定和訊號管理器;對於pipelines這是一種存取設定和訊號管理器 的方式。
在這個例子中,我們將使用pymongo將Item寫到MongoDB。MongoDB的地址和資料庫名稱在Scrapy setttings.py組態檔中;
這個例子主要是說明如何使用from_crawler()方法
import pymongo class MongoPipeline(object): collection_name = 'scrapy_items' def __init__(self, mongo_uri, mongo_db): self.mongo_uri = mongo_uri self.mongo_db = mongo_db @classmethod def from_crawler(cls, crawler): return cls( mongo_uri=crawler.settings.get('MONGO_URI'), mongo_db=crawler.settings.get('MONGO_DATABASE', 'items') ) def open_spider(self, spider): self.client = pymongo.MongoClient(self.mongo_uri) self.db = self.client[self.mongo_db] def close_spider(self, spider): self.client.close() def process_item(self, item, spider): self.db[self.collection_name].insert(dict(item)) return item
到此這篇關於scrapy框架ItemPipeline的使用的文章就介紹到這了,更多相關scrapy ItemPipeline內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45