信息收集之网站镜像克隆

前言

一个成功的渗透测试人员,在进行一次成功的渗透测试之前,必须能够获得尽可能多的信息。有时候复制组织的整个网站进行离线评估更有效。这可以使用自动化工具设定搜索条件,或者仅对当前站点改变的敏感信息进行镜像复制。当离线时,拥有 一份镜像进行持续观察很有效。Wooyun被封杀,现在网上还有很多Wooyun镜像站来继续发挥Wooyun的预热那样。镜像网站不会复制动态内容,也不会复制网站的中间件,比如:数据库等,因此,这并不是对所有渗透测试环境都适用。我个人一般都是用这些工具来 "盗取" 炫酷的html5网站(嘘 ~~~),有时候用它离线存储一些网站,总之挺实用的。

使用wget复制克隆网站

介绍

Kali linux默认按照了wget工具,它简单使用,Pentest Box中也集成了wget。只要在终端下敲几个命令,就可以下载整个网站的html文件。wget不能复制服务器的程序页面,例如PHP脚本页面。

使用方法

终端下输入:

wget -m -p -E -k -K -np -v http://www.baidu.com

这样就会把百度的首页复制下来,就是这么简单粗暴。这里使用了一连串的参数,可以使用man命令来查看 wget的手册:

man wget

wget的主要参数如下:

m:镜像,选择该选项适用于Web站点    
p页面获先决条件,该选项确保 包含了请求的   图片和css脚本文件被下载(这样可以更好的复制 html5的站点)  
E:适用扩展,这可以在本地另存为一个html文件  
k:转换链接,确保文件被转换,用于本地浏览  
K:转换备份文件,将会以orig为后缀作为原始文件    

从组织的Web服务器传送的文件将会存储在复制的网站名称命名的文件夹中。复制网站时,可能会发生错误,尤其是在复制动态脚本页面的时候,这是因为生成页面的大部分代码是有动态脚本创建的,大部分站点的应用程序是不能访问到的。

注:文件一旦被下载,切忌不可以让其他人浏览和重新发布站点,这回违反版权法。

实战克隆

下面来 实战用wget来克隆 小米官方HTML5引导页:

使用HTTrack复制克隆网站

介绍

HTTrack是一款免费的离线浏览器工具,和wget克隆复制镜像差不多,从服务器抓取HTML文件、图片、以及其他css文件并存储到你的计算机上。Kali 2.0起默认预装了 HTTrack

使用方法

终端下输入:

httrack

如果没有安装这个工具的话,那就现场安装一下吧,只需要2个命令:

apt-get update
apt-get install httrack

这里提示要输入项目名称、存放网站的路径(默认为 /root/website) 和要克隆的目标站 我们这里以 搜狗浏览器官网为例
我们自定义输入test 然后 按下 回车

sougou

然后默认路径 回车

输入想要克隆的网站

http://ie.sougou.com

下面HTTrack提供了一些选项,我们一般选择第二本选项 Mirror Web Site(s) with Wizard(具有向导递归层级的镜像网站) 输入:2
回车 回车 回车 后面的一些基本设置 一般一直回车下去 直到网站开始克隆为止,HTTrack 就开始进行网站克隆了。

小结

个人认为:wget操作简单方便,但是克隆效果不及 HTTrack;HTTrack虽然比wget稍微繁琐了一点,但是在爬一个大型网站上面完整性要优于wget。 对了,最后再提醒一下:注意版权。

posted @ 2017-07-23 10:10  国光  阅读(2599)  评论(1编辑  收藏  举报