原文链接 : http://larry850806.github.io/2016/06/15/wget/
内容
1.下載檔案
下載
普通的下載檔案
wget http://ipv4.download.thinkbroadband.com/5MB.zip -O 5MB.zip
-O 下載下來的檔名
續傳
檔案太大的話可以用續傳功能上次下載到哪裡會繼續下載
wget -c http://ipv4.download.thinkbroadband.com/5MB.zip-c
續傳
重試
如果網路不穩時可以設定重試次數
wget -t 10 http://ipv4.download.thinkbroadband.com/5MB.zip
-t 10 最多重試 10 次
-t 0 不斷重試直到成功為止
速度上限
也可以設定速度上限
wget --limit-rate=200k http://ipv4.download.thinkbroadband.com/5MB.zip
--limit-rate 速度上限
下載速限 200KB/s
2.備份網頁
備份 Google 搜尋的網頁
wget -p -k https://www.google.com.tw
-p 下載網頁所需的所有檔案, 如圖片.背景音樂
-k 將相對連結轉為絕對連結, 可離線瀏覽
3.下載整個網站
網站 != 網頁一個網站可能有很多網頁
下載整個”演算法筆記”網站
來看看演算法筆記這個網站
這個網站裡面有很多網頁如果要把整個網站下載下來
wget -r -p -np -k http://www.csie.ntnu.edu.tw/~u91029/index.html
-r 遞迴下載網站內的所有檔案
-p 下載網頁所需的所有檔案, 如圖片.背景音樂
-np 不要下載父目錄的東西
-k 將相對連結轉為絕對連結, 可離線瀏覽
因為整個網站有很多圖片跟文字所以要有點久(我自己下載花了六分鐘左右)
下載完進到裡面找 index.html 就可以離線瀏覽了
以上是比較常見的 wget 用法
我個人覺得最好用的是下載網站的功能~
下載之後就可以直接在本機上看
偶爾在更新重新下載一次就可以了