博客日历
2025年01月 | ||||||
一 | 二 | 三 | 四 | 五 | 六 | 七 |
30 | 31 | 1 | 2 | 3 | 4 | 5 |
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 | 1 | 2 |
存档
2024年03月 04月 05月 2021年
01月 02月 11月 12月 2020年
02月 03月 04月 05月 06月 07月
09月 2018年
09月 2017年
01月 02月 07月 2016年
01月 04月 07月 08月 11月 12月
2015年
01月 02月 03月 05月 09月 10月
11月 2014年
01月 02月 03月 04月 05月 06月
07月 08月 09月 10月 11月 12月
2013年
01月 02月 03月 04月 05月 06月
07月 08月 09月 10月 11月 12月
2012年
01月 02月 03月 04月 05月 06月
07月 08月 09月 10月 11月 12月
2011年
01月 02月 03月 04月 05月 06月
07月 08月 09月 10月 11月 12月
2010年
01月 02月 03月 04月 05月 06月
07月 08月 09月 10月 11月 12月
2009年
03月 04月 05月 06月 07月 08月
09月 10月 11月 12月
使用wget命令进行整站下载
wget -e "http_proxy=192.168.2.73:8080" -r -p -np -k http://www.mouseos.com/
-e 在命令行中使用.wgetrc支持的各种配置
-r 递归下载
-p 下载页面的所有元素,图片,rar文件等
-np 不追溯到父目录,不下载其他网站的链接
-k 将链接地址转换为相对地址
参考:
http://blog.csdn.net/paulluo0739/article/details/7313994
http://blog.csdn.net/kowity/article/details/6899256
如果网站的部分页面需要登录才能下载,可以先用wget取得cookies,再带着cookies下载,例子如下:
取得cookies:
wget --execute="http_proxy=192.168.2.73:8080"
--save-cookies=login_info.txt
--post-data="username=user1&password=pass1"
http://www.xxx.com/actions/login_test.jsp
使用cookies:
wget --execute="http_proxy=192.168.2.73:8080"
--load-cookies=login_info.txt
http://www.xxx.com/assistant/test.jsp
上面用到的几个参数的意义:
--execute=COMMAND execute a `.wgetrc'-style command.
--load-cookies=FILE load cookies from FILE before session.
--save-cookies=FILE save cookies to FILE after session.
--post-data=STRING use the POST method; send STRING as the data.
上一篇: 对Notepad++外观的一点小修改
下一篇: 反编译微软早期DOS下的QuickHelp帮助文档(.hlp)
分类:Linux 查看次数:10953 发布时间:2013/8/21 10:35:50