首頁 > 軟體

CentOS中wget的使用方法

2020-06-16 17:51:10

本文主要為大家介紹CentOS中wget的應用,包括介紹CentOS wget包背景知識等方面wget 是一個命令列的下載工具。

對於 Linux 使用者來說,幾乎每天都在使用它。

下面為大家介紹幾個有用的 CentOS wget 小技巧,可以讓你更加高效而靈活的使用CentOS wget。

CentOS wget 使用技巧

$ CentOS wget -r -np -nd http://example.com/packages/ 這條命令可以下載 http://example.com 網站上 packages 目錄中的所有檔案。其中,-np 的作用是不遍歷父目錄,-nd 表示不在本機重新建立目錄結構。

$ CentOS wget-r -np -nd --accept=iso http://example.com/centos-5/i386/ 與上一條命令相似,但多加了一個 --accept=iso 選項,這指示CentOS wget僅下載 i386 目錄中所有擴充套件名為 iso 的檔案。你也可以指定多個擴充套件名,只需用逗號分隔即可。

$ CentOS wget -i filename.txt 此命令常用於批次下載的情形,把所有需要下載檔案的地址放到 filename.txt 中,然後 CentOS wget 就會自動為你下載所有檔案了。
$ CentOS wget -c http://example.com/really-big-file.iso 這裡所指定的 -c 選項的作用為斷點續傳。
$ CentOS wget -m -k (-H) http://www.example.com/ 該命令可用來映象一個網站,CentOS wget將對連結進行轉換。如果網站中的影象是放在另外的站點,那麼可以使用 -H 選項。

CentOS wget 使用指南

CentOS wget是一個從網路上自動下載檔案的自由工具。它支援HTTP,HTTPS和FTP協定,可以使用HTTP代理. 所謂的自動下載是指,CentOS wget可以在使用者退出系統的之後在後台執行。這意味這你可以登入系統,啟動一個CentOS wget下載任務,然後退出系統,CentOS wget將在後台執行直到任務完成,相對於其它大部分瀏覽器在下載大量資料時需要使用者一直的參與,這省去了極大的麻煩。

wget可以跟蹤HTML頁面上的連結依次下載來建立遠端伺服器的本地版本,完全重建原始站點的目錄結構。這又常被稱作"遞回下載"。在遞回下載的時候,wget遵循Robot Exclusion標準(/robots.txt). wget可以在下載的同時,將連結轉換成指向本地檔案,以方便離線瀏覽。

wget非常穩定,它在頻寬很窄的情況下和不穩定網路中有很強的適應性.如果是由於網路的原因下載失敗,wget會不斷的嘗試,直到整個檔案下載完畢。如果是伺服器打斷下載過程,它會再次聯到伺服器上從停止的地方繼續下載。這對從那些限定了連結時間的伺服器上下載大檔案非常有用。

wget的常見用法wget的使用格式

Usage: wget [OPTION]... [URL]...
用wget做站點映象: wget -r -p -np -k http://dsec.pku.edu.cn/~usr_name/# 或者wget -m http://www.tldp.org/LDP/abs/html/在不穩定的網路上下載一個部分下載的檔案,以及在空閒時段下載
wget -t 0 -w 31 -c http://dsec.pku.edu.cn/BBC.avi -o down.log &# 或者從filelist讀入要下載的檔案列表
wget -t 0 -w 31 -c -B ftp://dsec.pku.edu.cn/linuxsoft -i filelist.txt -o down.log &

上面的程式碼還可以用來在網路比較空閒的時段進行下載。我的用法是:在mozilla中將不方便當時下載的URL連結拷貝到記憶體中然後貼上到檔案filelist.txt中,在晚上要出去系統前執行上面程式碼的第二條。

使用代理下載 wget -Y on -p -k https://sourceforge.net/projects/wvware/代理可以在環境變數或wgetrc檔案中設定 # 在環境變數中設定代理export PROXY=http://211.90.168.94:8080/# 在~/.wgetrc中設定代理
http_proxy = http://proxy.yoyodyne.com:18023/
ftp_proxy = http://proxy.yoyodyne.com:18023/

wget各種選項分類列表啟動

-V, --version          顯示wget的版本後退出
-h, --help              列印語法幫助
-b, --background        啟動後轉入後台執行
-e, --execute=COMMAND  執行`.wgetrc'格式的命令,wgetrc格式參見/etc/wgetrc或~/.wgetrc

記錄和輸入檔案

-o, --output-file=FILE    把記錄寫到FILE檔案中
-a, --append-output=FILE  把記錄追加到FILE檔案中
-d, --debug                列印偵錯輸出
-q, --quiet                安靜模式(沒有輸出)
-v, --verbose              冗長模式(這是預設設定)
-nv, --non-verbose          關掉冗長模式,但不是安靜模式
-i, --input-file=FILE      下載在FILE檔案中出現的URLs
-F, --force-html          把輸入檔案當作HTML格式檔案對待
-B, --base=URL            將URL作為在-F -i引數指定的檔案中出現的相對連結的字首
--sslcertfile=FILE    可選用戶端證書
--sslcertkey=KEYFILE  可選用戶端證書的KEYFILE
--egd-file=FILE        指定EGD socket的檔名

下載

--bind-address=ADDRESS  指定本地使用地址(主機名或IP,當本地有多個IP或名字時使用)
-t, --tries=NUMBER          設定最大嘗試連結次數(0 表示無限制).
-O  --output-document=FILE  把文件寫到FILE檔案中
-nc, --no-clobber            不要覆蓋存在的檔案或使用.#字首
-c, --continue              接著下載沒下載完的檔案
--progress=TYPE          設定進程條標記
-N, --timestamping          不要重新下載檔案除非比本地檔案新
-S, --server-response        列印伺服器的回應
--spider                不下載任何東西
-T, --timeout=SECONDS        設定響應超時的秒數
-w, --wait=SECONDS          兩次嘗試之間間隔SECONDS秒
--waitretry=SECONDS      在重新連結之間等待1...SECONDS秒
--random-wait            在下載之間等待0...2*WAIT秒
-Y, --proxy=on/off          開啟或關閉代理
-Q, --quota=NUMBER          設定下載的容量限制
--limit-rate=RATE        限定下載輸率

目錄

-nd --no-directories            不建立目錄
-x, --force-directories        強制建立目錄
-nH, --no-host-directories      不建立主機目錄
-P, --directory-prefix=PREFIX  將檔案儲存到目錄 PREFIX/...
--cut-dirs=NUMBER          忽略 NUMBER層遠端目錄

HTTP 選項

--http-user=USER      設定HTTP使用者名稱為 USER.
--http-passwd=PASS    設定http密碼為 PASS.
-C, --cache=on/off        允許/不允許伺服器端的資料快取 (一般情況下允許).
-E, --html-extension      將所有text/html文件以.html擴充套件名儲存
--ignore-length      忽略 `Content-Length'頭域
--header=STRING      在headers中插入字串 STRING
--proxy-user=USER    設定代理的使用者名稱為 USER
--proxy-passwd=PASS  設定代理的密碼為 PASS
--referer=URL        在HTTP請求中包含 `Referer: URL'頭
-s, --save-headers        儲存HTTP頭到檔案
-U, --user-agent=AGENT    設定代理的名稱為 AGENT而不是 Wget/VERSION.
--no-http-keep-alive 關閉 HTTP活動連結 (永遠連結).
--cookies=off        不使用 cookies.
--load-cookies=FILE  在開始對談前從檔案 FILE中載入cookie
--save-cookies=FILE  在對談結束後將 cookies儲存到 FILE檔案中

FTP 選項

-nr, --dont-remove-listing  不移走 `.listing'檔案
-g, --glob=on/off          開啟或關閉檔名的 globbing機制
--passive-ftp          使用被動傳輸模式 (預設值).
--active-ftp            使用主動傳輸模式
--retr-symlinks        在遞回的時候,將連結指向檔案(而不是目錄)

遞回下載

-r, --recursive          遞回下載--慎用!
-l, --level=NUMBER      最大遞迴深度 (inf 或 0 代表無窮).
--delete-after      在現在完畢後區域性刪除檔案
-k, --convert-links      轉換非相對連結為相對連結
-K, --backup-converted  在轉換檔案X之前,將之備份為 X.orig
-m, --mirror            等價於 -r -N -l inf -nr.
-p, --page-requisites    下載顯示HTML檔案的所有圖片

遞回下載中的包含和不包含(accept/reject)

-A, --accept=LIST                分號分隔的被接受擴充套件名的列表
-R, --reject=LIST                分號分隔的不被接受的擴充套件名的列表
-D, --domains=LIST              分號分隔的被接受域的列表
--exclude-domains=LIST      分號分隔的不被接受的域的列表
--follow-ftp                跟蹤HTML文件中的FTP連結
--follow-tags=LIST          分號分隔的被跟蹤的HTML標籤的列表
-G, --ignore-tags=LIST          分號分隔的被忽略的HTML標籤的列表
-H, --span-hosts                當遞回時轉到外部主機
-L, --relative                  僅僅跟蹤相對連結
-I, --include-directories=LIST  允許目錄的列表
-X, --exclude-directories=LIST  不被包含目錄的列表
-np, --no-parent                  不要追溯到父目錄

備註:若要停止下載,Ctrl+C。

總結:CentOS wget是一個從網路上自動下載檔案的自由工具。它支援HTTP,HTTPS和FTP協定,可以使用HTTP代理. 所謂的自動下載是指,CentOS wget可以在使用者退出系統的之後在後台執行。這意味這你可以登入系統,啟動一個CentOS wget下載任務,然後退出系統,CentOS wget將在後台執行直到任務完成,相對於其它大部分瀏覽器在下載大量資料時需要使用者一直的參與,這省去了極大的麻煩。

Linux wget命令詳解 http://www.linuxidc.com/Linux/2012-08/67837.htm

Linux 下使用 wget/aria2 進行離線迅雷批次下載 http://www.linuxidc.com/Linux/2011-10/46052.htm

Linux使用wget請求地址時報錯 http://www.linuxidc.com/Linux/2011-07/39345.htm

Linux下載命令wget使用詳解 http://www.linuxidc.com/Linux/2011-01/30980.htm

wget 使用大全 http://www.linuxidc.com/Linux/2008-09/15722.htm

Linux 命令列下載工具 wget 的使用技巧 http://www.linuxidc.com/Linux/2007-10/8293.htm

wget 命令範例 http://www.linuxidc.com/Linux/2014-10/108733.htm

本文永久更新連結地址http://www.linuxidc.com/Linux/2015-10/124407.htm


IT145.com E-mail:sddin#qq.com