巧用Wget快速建立文件下载中心(转载)

原文链接:https://www.cnblogs.com/linuxde/p/8717358.html

 

Wget基本用法:
1) 从网上下载单个文件

wget http://www.freehao123.com/file.iso

2) 下载一个文件,但以不同的名字存为本地文件

wget –output-document=filename.html freehao123.com

3) 下载一个文件,存到指定的目录

wget –directory-prefix=folder/subfolder freehao123.com

4) 恢复之前中断的一个wget下载

wget –continue freehao123.com/big.file.iso
wget -c freehao123.com/big.file.iso

5) 下载一个文件,但只在服务器上的版本比本地版本新时才会真正执行

wget –continue –timestamping freehao123.com/latest.zip

6) 用wget下载多个网址,这些网址存于一个文本文件中,一行一个网址

wget –input list-of-file-urls.txt

7) 从服务器下载一些以连续序号为文件名的文件

wget http://example.com/images/{1..20}.jpg
wget http://example.com/images/pre-{1..20}-post.jpg

8) 下载一个网页,包括它所有的内容,比如样式表和包含的图片,它们是确保网页离线显示所必需的

wget -page-requisites –span-hosts –convert-links –adjust-extension http://example.com/dir/file
wget -p -H -k -E http://example.com/dir/file

Wget对整个网站进行镜像:

1) 下载整个网站,包括它所有链接的页面和文件

wget --execute robots=off --recursive --no-parent --continue --no-clobber http://example.com/
wget -e robots=off -r -np -c -nc http://example.com/

2) 从网站上一个子目录中下载所有MP3文件

wget –level=1 –recursive –no-parent –accept mp3,MP3 http://example.com/mp3/
wget -l 1 -r -np -A mp3,MP3 http://example.com/mp3/

3) 将一个网站上的所有图片下载到同一个目录中

wget –directory-prefix=files/pictures –no-directories –recursive –no-clobber –accept jpg,gif,png,jpeg http://example.com/images/
wget -P files/pictures -nd -r -nc -A jpg,gif,png,jpeg http://example.com/images/

4) 从一个网站上下载PDF文件,采用递归的方式,但不跳出指定的网域

wget –mirror –domains=abc.com,files.abc.com,docs.abc.com –accept=pdf http://abc.com/
wget -m -D abc.com,files.abc.com,docs.abc.com -A pdf http://abc.com/

5) 从一个网站上下载所有文件,但是排除某些目录

wget –recursive –no-clobber –no-parent –exclude-directories /forums,/support http://example.com
wget -r -nc -np -X /forums,/support http://example.com

Wget高级用法:

1) 下载网站上的文件,假设此网站检查User Agent和HTTP参照位址(referer)

wget --referer=/5.0 --user-agent="Firefox/4.0.1" http://freehao123.com

2) 从密码保护网站上下载文件

wget –http-user=labnol –http-password=hello123 http://example.com/secret/file.zip

3) 抓取登陆界面后面的页面。你需要将用户名和密码替换成实际的表格域值,而URL应该指向(实际的)表格提交页面

wget –cookies=on –save-cookies cookies.txt –keep-session-cookies –post-data ‘user=labnol&password=123’ http://example.com/login.php
wget –cookies=on –load-cookies cookies.txt –keep-session-cookies http://example.com/paywall

4) 在不下载的情况下,得到一个文件的大小 (在网络响应中寻找用字节表示的文件长度)

wget –spider –server-response http://example.com/file.iso
wget –spider -S http://example.com/file.iso

5) 下载一个文件,但不存储为本地文件,而是在屏幕上显示其内容

wget –output-document=- –quiet google.com/humans.txt
wget -O- -q google.com/humans.txt

6) 得到网页的最后修改日期 (检查HTTP头中的Last Modified标签)

wget –server-response –spider http://www.freehao123.com/
wget -S –spider http://www.labnol.org/

7) 检查你的网站上的链接是否都可用。spider选项将令wget不会在本地保存网页

wget –output-file=logfile.txt –recursive –spider http://example.com
wget -O logfile.txt -r –spider http://example.com
posted @ 2020-03-05 18:04  wleiyeah  阅读(317)  评论(0)    收藏  举报