<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
大家好,這一期阿彬給大家分享Scrapy爬蟲框架與本地Mysql的使用。今天阿彬爬取的網頁是虎撲體育網。
(1)開啟虎撲體育網,分析一下網頁的資料,使用xpath定位元素。
(2)在第一部分析網頁之後就開始建立一個scrapy爬蟲工程,在終端執行以下命令:
“scrapy startproject huty(注:‘hpty’是爬蟲專案名稱)”,得到了下圖所示的工程包:
(3)進入到“hpty/hpty/spiders”目錄下建立一個爬蟲檔案叫‘“sww”,在終端執行以下命令: “scrapy genspider sww” (4)在前兩步做好之後,對整個爬蟲工程相關的爬蟲檔案進行編輯。 1、setting檔案的編輯:
把君子協定原本是True改為False。
再把這行原本被註釋掉的程式碼把它開啟。
2、對item檔案進行編輯,這個檔案是用來定義資料型別,程式碼如下:
# Define here the models for your scraped items # # See documentation in: # https://docs.scrapy.org/en/latest/topics/items.html import scrapy class HptyItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() 球員 = scrapy.Field() 球隊 = scrapy.Field() 排名 = scrapy.Field() 場均得分 = scrapy.Field() 命中率 = scrapy.Field() 三分命中率 = scrapy.Field() 罰球命中率 = scrapy.Field()
3、對最重要的爬蟲檔案進行編輯(即“hpty”檔案),程式碼如下:
import scrapy from ..items import HptyItem class SwwSpider(scrapy.Spider): name = 'sww' allowed_domains = ['https://nba.hupu.com/stats/players'] start_urls = ['https://nba.hupu.com/stats/players'] def parse(self, response): whh = response.xpath('//tbody/tr[not(@class)]') for i in whh: 排名 = i.xpath( './td[1]/text()').extract()# 排名 球員 = i.xpath( './td[2]/a/text()').extract() # 球員 球隊 = i.xpath( './td[3]/a/text()').extract() # 球隊 場均得分 = i.xpath( './td[4]/text()').extract() # 得分 命中率 = i.xpath( './td[6]/text()').extract() # 命中率 三分命中率 = i.xpath( './td[8]/text()').extract() # 三分命中率 罰球命中率 = i.xpath( './td[10]/text()').extract() # 罰球命中率 data = HptyItem(球員=球員, 球隊=球隊, 排名=排名, 場均得分=場均得分, 命中率=命中率, 三分命中率=三分命中率, 罰球命中率=罰球命中率) yield data
4、對pipelines檔案進行編輯,程式碼如下:
# Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html # useful for handling different item types with a single interface from cursor import cursor from itemadapter import ItemAdapter import pymysql class HptyPipeline: def process_item(self, item, spider): db = pymysql.connect(host="Localhost", user="root", passwd="root", db="sww", charset="utf8") cursor = db.cursor() 球員 = item["球員"][0] 球隊 = item["球隊"][0] 排名 = item["排名"][0] 場均得分 = item["場均得分"][0] 命中率 = item["命中率"] 三分命中率 = item["三分命中率"][0] 罰球命中率 = item["罰球命中率"][0] # 三分命中率 = item["三分命中率"][0].strip('%') # 罰球命中率 = item["罰球命中率"][0].strip('%') cursor.execute( 'INSERT INTO nba(球員,球隊,排名,場均得分,命中率,三分命中率,罰球命中率) VALUES (%s,%s,%s,%s,%s,%s,%s)', (球員, 球隊, 排名, 場均得分, 命中率, 三分命中率, 罰球命中率) ) # 對事務操作進行提交 db.commit() # 關閉遊標 cursor.close() db.close() return item
(5)在scrapy框架設計好了之後,先到mysql建立一個名為“sww”的資料庫,在該資料庫下建立名為“nba”的資料表,程式碼如下: 1、建立資料庫
create database sww;
2、建立資料表
create table nba (球員 char(20),球隊 char(10),排名 char(10),場均得分 char(25),命中率 char(20),三分命中率 char(20),罰球命中率 char(20));
3、通過建立資料庫和資料表可以看到該表的結構:
(6)在mysql建立資料表之後,再次回到終端,輸入如下命令:“scrapy crawl sww”,得到的結果
到此這篇關於使用Scrapy框架爬取網頁並儲存到Mysql的實現的文章就介紹到這了,更多相關Scrapy爬取網頁並儲存內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45