我还是喜欢自己写命令行,用wget或者curl批量下。确实下在线文档很方便。有相同需求的可以参考。
首先,下载windows版的wget,放到system32下面;
其次,将以下文字存到文本文档,并且另存为.bat文件。
rem 参数说明:
rem -r:递归下载
rem -c:断点续传
rem -p:–page-requisites 下载显示HTML文件的所有图片递归下载中的包含和不包含(accept/reject)
rem -k:转换非相对链接为相对链接
rem -np:不要追溯到父目录
rem -i:从文件中取得URL;
rem downloadlist.txt是要下载的链接集合,每行一个链接。
rem -N:不要重新下载文件除非比本地文件新-nc
rem –no-check-certificate:不校验https
wget –no-check-certificate -r -c -p -k -np -N -i downloadlist.txt -o down.log &
某些二狗….
需求不大,占个位先~~~
我去把度娘下载下来;-)
@Sowari, 好,有气魄,我顶你
我去下股沟
为什么要下载别人的站点,但是技术博客可以把文章舶来!
某些二狗..
嗯,二狗流越来越小众了。
我用VisualWget
下载一些在线文档很有用,不过我还是习惯手工完成,看多少下多少~~
这东西有用么?
我一直用Webdup,虽然很久没更新了,
帮我下了不少成人整站,
0.0
喵。。。好用。
某些二狗是指我?上次是我问的windows问题的
我说下度娘会不会把硬盘撑爆?
@gerald2008, 只能上度娘,没听过下度娘的。。。
我还是喜欢自己写命令行,用wget或者curl批量下。确实下在线文档很方便。有相同需求的可以参考。
首先,下载windows版的wget,放到system32下面;
其次,将以下文字存到文本文档,并且另存为.bat文件。
rem 参数说明:
rem -r:递归下载
rem -c:断点续传
rem -p:–page-requisites 下载显示HTML文件的所有图片递归下载中的包含和不包含(accept/reject)
rem -k:转换非相对链接为相对链接
rem -np:不要追溯到父目录
rem -i:从文件中取得URL;
rem downloadlist.txt是要下载的链接集合,每行一个链接。
rem -N:不要重新下载文件除非比本地文件新-nc
rem –no-check-certificate:不校验https
wget –no-check-certificate -r -c -p -k -np -N -i downloadlist.txt -o down.log &
downloadlist.txt 内保存下载链接,比如http://www.my285.com/ysyz/xslm/index.htm
还支持断点续传,对网络不好的用户较好。以下步骤对有进一步整理下载需求的用户而言。下载的网页有很多广告或者不需要的图片,大家查看下网页代码,用HTML FAR批量替换掉就好了,还支持正则。注意,批量替换前先备份。
@jes, 很专业,但太麻烦
@jes, 这个很有专业范。。。。
@jes, 其实他是来挂链的。。。
以前不知道在哪下了个下整站的软件不好用,下个这个试试,谢了啊!
大人!我想问.有天朝文版本吗?
果然是好东西,我想把自己的博客存到本地。
能下载百度文库么,省的俺用文库宝怪不习惯的
@昨儿个的包子, 百度文库是flash,下不下来的
是能把对方整个站的源代码包括CSS、JS都下载下来吗?
介绍过于简单,没人任何参考价值
小众真不错。良心网站。我一般找软件都来这里先搜索一下,才敢放心用