首頁 > 軟體

詳解如何用Python寫個聽小說的爬蟲

2022-02-19 19:06:38

在路上發現好多人都喜歡用耳機聽小說,同事居然可以一整天的帶著一隻耳機聽小說。小編表示非常的震驚。今天就用 Python 下載聽小說 tingchina.com的音訊。

書名和章節列表

隨機點開一本書,這個頁面可以使用 BeautifulSoup 獲取書名和所有單個章節音訊的列表。複製瀏覽器的地址,如:https://www.tingchina.com/yousheng/disp_31086.htm。

from bs4 import BeautifulSoup
import requests
import re
import random
import os

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36'
}

def get_detail_urls(url):
    url_list = []
    response = requests.get(url, headers=headers)
    response.encoding = 'gbk'
    soup = BeautifulSoup(response.text, 'lxml')
    name = soup.select('.red12')[0].strong.text
    if not os.path.exists(name):
        os.makedirs(name)
    div_list = soup.select('div.list a')
    for item in div_list:
        url_list.append({'name': item.string, 'url': 'https://www.tingchina.com/yousheng/{}'.format(item['href'])})
    return name, url_list

音訊地址

開啟單個章節的連結,在 Elements 面板用章節名稱作為搜尋詞,在底部發現了一個 script,這一部分就是聲源的地址。

在 Network 面板可以看到,聲源的 url 域名和章節列表的域名是不一樣的。在獲取下載連結的時候需要注意這一點。

def get_mp3_path(url):
    response = requests.get(url, headers=headers)
    response.encoding = 'gbk'
    soup = BeautifulSoup(response.text, 'lxml')
    script_text = soup.select('script')[-1].string
    fileUrl_search = re.search('fileUrl= "(.*?)";', script_text, re.S)
    if fileUrl_search:
        return 'https://t3344.tingchina.com' + fileUrl_search.group(1)

下載

驚喜總是突如其來,把這個 https://t3344.tingchina.com/xxxx.mp3 放入瀏覽器中執行居然是 404。

肯定是少了關鍵性的引數,回到上面 Network 仔細觀察 mp3 的 url,發現在 url 後面帶了一個 key 的關鍵字。如下圖,這個 key 是來自於 https://img.tingchina.com/play/h5_jsonp.asp?0.5078556568562795 的返回值,可以使用正規表示式將 key 取出來。

def get_key(url):
    url = 'https://img.tingchina.com/play/h5_jsonp.asp?{}'.format(str(random.random()))
    headers['referer'] = url
    response = requests.get(url, headers=headers)
    matched = re.search('(key=.*?)";', response.text, re.S)
    if matched:
        temp = matched.group(1)
        return temp[len(temp)-42:]

最後的最後在 __main__ 中將以上的程式碼串聯起來。

if __name__ == "__main__":
    url = input("請輸入瀏覽器書頁的地址:")
    dir,url_list = get_detail_urls()

    for item in url_list:
        audio_url = get_mp3_path(item['url'])
        key = get_key(item['url'])
        audio_url = audio_url + '?key=' + key
        headers['referer'] = item['url']
        r = requests.get(audio_url, headers=headers,stream=True)
        with open(os.path.join(dir, item['name']),'ab') as f:
            f.write(r.content)
            f.flush()

完整程式碼

from bs4 import BeautifulSoup
import requests
import re
import random
import os

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36'
}

def get_detail_urls(url):
    url_list = []
    response = requests.get(url, headers=headers)
    response.encoding = 'gbk'
    soup = BeautifulSoup(response.text, 'lxml')
    name = soup.select('.red12')[0].strong.text
    if not os.path.exists(name):
        os.makedirs(name)
    div_list = soup.select('div.list a')
    for item in div_list:
        url_list.append({'name': item.string, 'url': 'https://www.tingchina.com/yousheng/{}'.format(item['href'])})
    return name, url_list
    
def get_mp3_path(url):
    response = requests.get(url, headers=headers)
    response.encoding = 'gbk'
    soup = BeautifulSoup(response.text, 'lxml')
    script_text = soup.select('script')[-1].string
    fileUrl_search = re.search('fileUrl= "(.*?)";', script_text, re.S)
    if fileUrl_search:
        return 'https://t3344.tingchina.com' + fileUrl_search.group(1)
        
def get_key(url):
    url = 'https://img.tingchina.com/play/h5_jsonp.asp?{}'.format(str(random.random()))
    headers['referer'] = url
    response = requests.get(url, headers=headers)
    matched = re.search('(key=.*?)";', response.text, re.S)
    if matched:
        temp = matched.group(1)
        return temp[len(temp)-42:]

if __name__ == "__main__":
    url = input("請輸入瀏覽器書頁的地址:")
    dir,url_list = get_detail_urls()

    for item in url_list:
        audio_url = get_mp3_path(item['url'])
        key = get_key(item['url'])
        audio_url = audio_url + '?key=' + key
        headers['referer'] = item['url']
        r = requests.get(audio_url, headers=headers,stream=True)
        with open(os.path.join(dir, item['name']),'ab') as f:
            f.write(r.content)
            f.flush()

總結

這個 Python 爬蟲比較簡單,小編的每個月 30 元的流量都不夠用,有了這個小程式在地鐵上就可以不用流量聽小說了。

以上就是詳解如何用Python寫個聽小說的爬蟲的詳細內容,更多關於Python爬蟲 聽小說的資料請關注it145.com其它相關文章!


IT145.com E-mail:sddin#qq.com