首頁 > 軟體

wget 命令操作範例

2020-06-16 17:48:58

wget下載方式有:

wget是Linux系統中用來下載檔案的工具,其功能還是比較多的,下面小編將針對wget命令的用法給大家做個範例介紹,11個範例中覆蓋的功能是比較全面的,感興趣的朋友可以看看

wget $link

wget $link --no-check

Linux系統中的wget是一個下載檔案的工具,它用在命令列下。預設檔案下載在當前工作路徑。可以設定-P引數指定檔案的下載地址。

用法範例:

下載百度首頁檔案到~/download目錄中

可以看到輸出的紀錄檔當中,在紅色方框標註處,明確顯示了檔案存放的路徑。

範例:

  範例1 :下載單個檔案

  # wget http://mirror.nbrc.ac.in/CentOS/7.0.1406/isos/x86_64/CentOS-7.0-1406-x86_64-DVD.iso

  該命令會下載CentOS 7 ISO檔案到使用者當前工作目錄中。

  範例2:續傳分段下載檔案

  總有那麼一些場景,當我們開始下載一個大檔案時,中途網際網路卻斷開了。那樣的話,我們可以使用wget命令的‘-c’選項,讓下載從斷點續傳。

  # wget -c http://mirror.nbrc.ac.in/centos/7.0.1406/isos/x86_64/CentOS-7.0-1406-x86_64-DVD.iso

  範例3:後臺下載檔案

  我們可以通過在wget命令中使用‘-b’選項來讓它在後台下載檔案。

  linuxtechi@localhost:~$ wget -b http://mirror.nbrc.ac.in/centos/7.0.1406/isos/x86_64/

  CentOS-7.0-1406-x86_64-DVD.iso

  Continuingin background, pid 4505.

  Output will be written to ‘wget-log’。

  正如我們上面所見,下載進程被捕獲到使用者當前目錄中的‘wget-log’檔案中。

  linuxtechi@localhost:~$ tail -f wget-log

  2300K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%48.1K18h5m

  2350K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%53.7K18h9m

  2400K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%52.1K18h13m

  2450K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%58.3K18h14m

  2500K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%63.6K18h14m

  2550K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%63.4K18h13m

  2600K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%72.8K18h10m

  2650K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%59.8K18h11m

  2700K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%52.8K18h14m

  2750K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%58.4K18h15m

  2800K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%58.2K18h16m

  2850K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%52.2K18h20m

  範例4:限制下載速率

  預設情況下,wget命令嘗試以全速下載,但是有時候你可能使用的是共用網際網路,那麼如果你嘗試使用wget來下載龐大的檔案時,就會把其它使用者的網路拖慢。這時,你如果使用‘-limit-rate’選項來限制下載速率,就可以避免這種情況的發生。

  #wget --limit-rate=100k http://mirror.nbrc.ac.in/centos/7.0.1406/isos/x86_64/CentOS-7.0-1406-x86_64-DVD.iso

  在上例中,下載速率被限制到了100k。

  範例5:使用‘-i’選項來下載多個檔案

  如果你想要使用wget命令來下載多個檔案,那麼首先要建立一個文字檔案,並將所有的URL新增到該檔案中。

  # cat download-list.txt

  url1

  url2

  url3

  url4

  現在,發出以下命令吧:

  # wget -i download-list.txt

  範例6:增加重試次數

  我們可以使用‘-tries’選項來增加重試次數。預設情況下,wget命令會重試20次,直到下載成功。

  該選項在你下載一個大檔案的過程中網際網路連線發生問題時十分有用,因為在那種情況下,會增加下載失敗的幾率。

  # wget --tries=75 http://mirror.nbrc.ac.in/centos/7.0.1406/isos/x86_64/CentOS-7.0-1406-x86_64-DVD.iso

  範例7:使用-o選項來重定向wget紀錄檔到檔案

  我們可以使用‘-o’選項來重定向wget命令的紀錄檔到一個紀錄檔檔案。

  #wget -o download.log http://mirror.nbrc.ac.in/centos/7.0.1406/isos/x86_64/CentOS-7.0-1406-x86_64-DVD.iso

  上面的命令會在使用者當前目錄下建立download.log檔案。

  範例8:下載整個網站用於本地檢視

  # wget --mirror -p --convert-links -P 。/《Local-Folder》 website-url

  鑑於

  –mirror : 開啟適用於映象的選項。

  -p : 下載所有能正確顯示指定HTML網頁的全部必要檔案。

  –convert-links : 下載完成後,轉換文件中的連結以用於本地檢視。

  -P 。/Local-Folder : 儲存所有檔案和目錄到指定的目錄。

  範例9:下載過程中拒絕檔案型別

  當你正打算下載整個網站時,我們可以使用‘-reject’選項來強制wget不下載圖片。

  # wget --reject=png Website-To-Be-Downloaded

  範例10:使用wget -Q設定下載配額

  我們可以使用‘-Q’選項強制wget命令在下載大小超過特定大小時退出下載。

  # wget -Q10m -i download-list.txt

  注意,配額不會對單個檔案的下載產生影響。所以,如果你指定wget -Q10m ftp://wuarchive.wustl.edu/ls-lR.gz,ls-lR.gz 的全部內容都會被下載。這在下載命令列指定的多個URL時也一樣。然而,在遞回或從一個輸入檔案檢索時,還是值得一用。因此,你可以安全地輸入‘wget -Q10m -i download-list.txt’,在超過配額時,下載會退出。

  範例11:從密碼保護的網站下載檔案

  # wget --ftp-user=《user-name》 --ftp-password=《password》 Download-URL

  另外一種指定使用者名稱和密碼的方式是在URL中。

  任一方法都將你的密碼揭露給了那些執行“ps”命令的人。要防止密碼被檢視到,將它們存???到.wgetrc或.netrc中,並使用“chmod”設定合適的許可權來保護這些檔案不讓其他使用者檢視到。如果密碼真的很重要,不要在它們還在檔案裡躺著的時候走開,在Wget開始下載後,編輯該檔案,或者刪除它們。

  上面就是Linux下載工具wget命令的使用範例介紹了,從這些例子中我們可以知道,wget的功能和我們通常使用的迅雷差不多,能夠實現限速、多個下載等功能。

Linux wget命令詳解 http://www.linuxidc.com/Linux/2012-08/67837.htm

Linux 下使用 wget/aria2 進行離線迅雷批次下載 http://www.linuxidc.com/Linux/2011-10/46052.htm

Linux使用wget請求地址時報錯 http://www.linuxidc.com/Linux/2011-07/39345.htm

Linux下載命令wget使用詳解 http://www.linuxidc.com/Linux/2011-01/30980.htm

wget 使用大全 http://www.linuxidc.com/Linux/2008-09/15722.htm

Linux 命令列下載工具 wget 的使用技巧 http://www.linuxidc.com/Linux/2007-10/8293.htm

wget 命令範例 http://www.linuxidc.com/Linux/2014-10/108733.htm

本文永久更新連結地址http://www.linuxidc.com/Linux/2015-12/126159.htm


IT145.com E-mail:sddin#qq.com