入门客AI创业平台(我带你入门,你带我飞行)
博文笔记

用Wget下载整个网站

创建时间:2015-09-27 投稿人: 浏览次数:1254

原文地址:

http://www.linuxjournal.com/content/downloading-entire-web-site-wget

也许你曾需要下载整个站点,比如是想离线浏览其内容,wget可以完成这项工作。比如:

$ wget 
     --recursive 
     --no-clobber 
     --page-requisites 
     --html-extension 
     --convert-links 
     --restrict-file-names=windows 
     --domains website.org 
     --no-parent 
         www.website.org/tutorials/html/

这条命令将把站点www.website.org/tutorials/html全部下载下来。

命令解释:

--recursive 递归下载整个站点

--no-clobber 不要覆盖已有文件(以防下载被中断而重新开始)

--domains website.org 不要下载website.org以外的链接地址

--no-parent 不要下载tutorials/html目录之外的内容

--page-requisites 下载所有页面需要的元素(图像、CSS等等)

--html-extention 只下载html相关的文件

--convert-links 转换链接地址,从而本地离线可以正常访问

--restrict-file-names=windows 修改文件名以使文件也可以在windows下访问(某些情况文件名在Linux下合法而在windows下非法)。

声明:该文观点仅代表作者本人,入门客AI创业平台信息发布平台仅提供信息存储空间服务,如有疑问请联系rumenke@qq.com。
  • 上一篇:没有了
  • 下一篇:没有了
未上传头像