warning:
这篇文章距离上次修改已过1995天,其中的内容可能已经有所变动。
wget是linux中常用的命令行下载工具,支持HTTP,HTTPS和FTP协议,可以使用HTTP代理。部分linux发行版可能需要手动安装。
软件源安装wget:
#Debian系的发行版
sudo apt-get install wget
编译安装wget:
tar -zxvf wget-1.9.1.tar.gz
cd wget-1.9.1
./configure
make
make install
命令语法
wget [参数] [URL地址]
附加参数
启动参数
| 参数 | 说明 |
|---|
| -V, –version | 显示wget的版本后退出 |
| -h, –help | 打印语法帮助 |
| -b, –background | 启动后转入后台执行 |
| -e, –execute=COMMAND | 执行.wgetrc格式的命令,wgetrc格式参见/etc/wgetrc或~/.wgetrc |
记录和输入文件参数
| 参数 | 说明 |
|---|
| -o, –output-file=FILE | 把记录写到FILE文件中 |
| -a, –append-output=FILE | 把记录追加到FILE文件中 |
| -d, –debug | 打印调试输出 |
| -q, –quiet | 安静模式(没有输出) |
| -v, –verbose | 冗长模式(这是缺省设置) |
| -nv, –non-verbose | 关掉冗长模式,但不是安静模式 |
| -i, –input-file=FILE | 下载在FILE文件中出现的URLs |
| -F, –force-html | 把输入文件当作HTML格式文件对待 |
| -B, –base=URL | 将URL作为在-F、-i参数指定的文件中出现的相对链接的前缀 |
| –sslcertfile=FILE | 可选客户端证书 |
| –sslcertkey=KEYFILE | 可选客户端证书的KEYFILE |
| –egd-file=FILE | 指定EGD socket的文件名 |
下载参数
| 参数 | 说明 |
|---|
| –bind-address=ADDRESS | 指定本地使用地址(主机名或IP,当本地有多个IP或名字时使用) |
| -t, –tries=NUMBER | 设定最大尝试链接次数(0 表示无限制). |
| -O –output-document=FILE | 把文档写到FILE文件中 |
| -nc, –no-clobber | 不要覆盖存在的文件或使用.#前缀 |
| -c, –continue | 接着下载没下载完的文件 |
| –progress=TYPE | 设定进程条标记 |
| -N, –timestamping | 不要重新下载文件除非比本地文件新 |
| -S, –server-response | 打印服务器的回应 |
| –spider | 不下载任何东西 |
| -T, –timeout=SECONDS | 设定响应超时的秒数 |
| -w, –wait=SECONDS | 两次尝试之间间隔SECONDS秒 |
| –waitretry=SECONDS | 在重新链接之间等待1…SECONDS秒 |
| –random-wait | 在下载之间等待0…2 WAIT秒 |
| -Y, –proxy=on/off | 打开或关闭代理 |
| -Q, –quota=NUMBER | 设置下载的容量限制 |
| –limit-rate=RATE | 限定下载输率 |
目录参数
| 参数 | 说明 |
|---|
| -nd –no-directories | 不创建目录 |
| -x, –force-directories | 强制创建目录 |
| -nH, –no-host-directories | 不创建主机目录 |
| -P, –directory-prefix=PREFIX | 将文件保存到目录 PREFIX/… |
| –cut-dirs=NUMBER | 忽略 NUMBER层远程目录 |
HTTP 选项参数
| 参数 | 说明 |
|---|
| –http-user=USER | 设定HTTP用户名为 USER |
| –http-passwd=PASS | 设定http密码为 PASS |
| -C, –cache=on/off | 允许/不允许服务器端的数据缓存 (一般情况下允许) |
| -E, –html-extension | 将所有text/html文档以.html扩展名保存 |
| –ignore-length | 忽略Content-Length头域 |
| –header=STRING | 在headers中插入字符串 STRING |
| –proxy-user=USER | 设定代理的用户名为 USER |
| –proxy-passwd=PASS | 设定代理的密码为 PASS |
| –referer=URL | 在HTTP请求中包含 Referer: URL头 |
| -s, –save-headers | 保存HTTP头到文件 |
| -U, –user-agent=AGENT | 设定代理的名称为 AGENT而不是 Wget/VERSION |
| –no-http-keep-alive | 关闭 HTTP活动链接 (永远链接) |
| –cookies=off | 不使用 cookies |
| –load-cookies=FILE | 在开始会话前从文件 FILE中加载cookie |
| –save-cookies=FILE | 在会话结束后将 cookies保存到 FILE文件中 |
FTP 选项参数
| 参数 | 说明 |
|---|
| -nr, –dont-remove-listing | 不移走 .listing文件 |
| -g, –glob=on/off | 打开或关闭文件名的 globbing机制 |
| –passive-ftp | 使用被动传输模式 (缺省值) |
| –active-ftp | 使用主动传输模式 |
| –retr-symlinks | 在递归的时候,将链接指向文件(而不是目录) |
递归下载参数
| 参数 | 说明 |
|---|
| -r, –recursive | 递归下载 慎用! |
| -l, –level=NUMBER | 最大递归深度 (inf 或 0 代表无穷) |
| –delete-after | 在现在完毕后局部删除文件 |
| -k, –convert-links | 转换非相对链接为相对链接 |
| -K, –backup-converted | 在转换文件X之前,将之备份为 X.orig |
| -m, –mirror | 等价于 -r -N -l inf -nr |
| -p, –page-requisites | 下载显示HTML文件的所有图片 |
递归下载中的包含和不包含(accept/reject)
| 参数 | 说明 |
|---|
| -A, –accept=LIST | 分号分隔的被接受扩展名的列表 |
| -R, –reject=LIST | 分号分隔的不被接受的扩展名的列表 |
| -D, –domains=LIST | 分号分隔的被接受域的列表 |
| –exclude-domains=LIST | 分号分隔的不被接受的域的列表 |
| –follow-ftp | 跟踪HTML文档中的FTP链接 |
| –follow-tags=LIST | 分号分隔的被跟踪的HTML标签的列表 |
| -G, –ignore-tags=LIST | 分号分隔的被忽略的HTML标签的列表 |
| -H, –span-hosts | 当递归时转到外部主机 |
| -L, –relative | 仅仅跟踪相对链接 |
| -I, –include-directories=LIST | 允许目录的列表 |
| -X, –exclude-directories=LIST | 不被包含目录的列表 |
| -np, –no-parent | 不要追溯到父目录 |
| -S –spider url | 不下载只显示过程 |
常用范例
使用wget下载单个文件
wget https://www.idzd.top/logo.png
下载我网站的logo
使用wget -O下载并以不同的文件名保存
wget -O mylogo.png https://www.idzd.top/logo.png
下载并指定文件名
使用wget –limit -rate限速下载
wget --limit-rate=300k https://www.idzd.top/logo.png
使用wget -c断点续传
wget -c https://www.idzd.top/logo.png
------------
使用wget -b后台下载
wget -b https://www.idzd.top/logo.png
后台下载
来察看下载进度:
tail -f wget-log
察看下载进度
伪装代理名称下载
wget --user-agent="Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16" https://www.idzd.top/logo.png
使用wget –spider测试下载链接
# 测试下载链接是否有效。
# 定时下载之前进行检查
# 间隔检测网站是否可用
# 检查网站页面的死链接
wget --spider URL
使用wget –tries增加重试次数
wget --tries=40 URL
使用wget -i下载多个文件
wget -i filelist.txt
使用wget –mirror镜像网站
wget --mirror -p --convert-links -P ./LOCAL URL
使用wget –reject过滤指定格式下载
wget --reject=gif URL
使用wget -o把下载信息存入日志文件
wget -o download.log URL
使用wget -Q限制总下载文件大小
wget -Q5m -i filelist.txt
使用wget -r -A下载指定格式文件
wget -r -A.pdf URL
使用wget FTP下载
wget ftp-url
wget --ftp-user=USERNAME --ftp-password=PASSWORD URL
使用wget匿名ftp下载:
wget ftp-url
用户名和密码认证的ftp下载
wget --ftp-user=USERNAME --ftp-password=PASSWORD URL