信息收集

文章内容参考B站泷羽sec

信息收集

-工商数据收集——弄清目标公司资产

先统计好目标公司的股权架构,一般50%控股可以算作有效目标,子公司资产将为我们提供不少的边缘业务系统

-工具

站长之家

http://whois.chinaz.com

邮箱反查:http://whois.chinaz.com/reverse?ddlSearchMode=1

注册人反查:http://whois.chinaz.com/reverse?ddlSearchMode=1

电话反查http://whois.chinaz.com/reverse?ddlSearchMode=1

爱站

https://whois.aizhan.com

微步

https://x.threatbook.cn/

国外的who. is

https://who.is/

阿里云域名信息查询

https://whois.aliyun.com

腾讯查询

https://whois.cloud.tencent.com/

中国互联网信息中心

http://ipwhois.cnnic.net.cn/

I C P备案查询

可查询该单位备案的其他网站

https://www.beianx.cn/

http://ico.chinaz.com/

国家企业信用信息公示系统

http://www.gxst.gov.cn/index.html

天眼查

https://www.tianyancha.com/

目标企业的微信公众号、微博、备案站点、A P P、软件著作权等

企查查

https://www.qcc.com/

爱站-S E O综合查询

https://www.aizhhan.com/cha/

站长-S E O综合查询

http://seo.chinaz.com/

Google Hacking语法

F O F A、360、鹰图、钟馗之眼

提炼特殊路由

不同的站点路由其实是不一样的,在这里的话若依站点最特殊的路由是prod-api

因此我们从路由的角度来体验

一种是找超链接的提炼方式

body=prod-api/

A P P、小程序、公众号信息收集

-A P P信息收集

·七麦数据

https://www/qimai.cn/

·微信公众号和小程序

点击文章下拉查看域名

百度Logo

·favicon.ico

所谓favicon,便是其可以让浏览器的收藏夹中除显示相应的标题外,还以图标的方式区别不同的网站。favicon.ico也被称为 website icon(网页图标)、page icon(页面图标)或url icon(URL图标),具体细节请问度娘。下面这个小东西就是 Favicon.ico,我们可以通过在shodan里寻找它的哈希并去查找相关资产,打开shodan页面,或者用shodan插件都行。

子域名收集(挖掘)

S S L(H T T PS)证书

点击浏览器网站旁边的小锁,然后点击证书就可以查看到该网站的SSL证书了

大厂商的SSL证书一般都是一证多用,根据证书透明日志这个特性,可以得知一些子域名。

H T TPS证书错误泄露域名

在线网站证书查询

https://crt.sh/

https://censys.io/

网络深度爬虫

以www.sina.com.cn为例,我们使用正则表达式抓取页面以sina.com.cn结尾的所有的URL(一级深度)。

\#!/usr/bin/env python

\# coding=utf-8

\# author=dave.fang@outlook.com

\# create=20160701

import re

import requests

 

from pprint import pprint

 

 

def crawl_page(url, domain):

  print('[*] Crawl URL: {0}'.format(url))

  found_url = set()

  req = requests.get(url, timeout=15)

  content = req.text

  link_list = re.findall(r"(?<=href=\").+?(?=\")|(?<=href=\').+?(?=\')", content)

  for url in link_list:

    result = re.findall('http[s]?://(.*?)\.sina\.com\.cn', url)

    if len(result) > 0:

      found_url.add('{0}.{1}'.format(result[0], domain))

  print(found_url)

 

 

if __name__ == '__main__':

  page_url = 'http://www.sina.com.cn/'

  main_domain = 'sina.com.cn'

  crawl_page(page_url, main_domain)

一级深度爬出来的结果,就有146个子域名,这个小脚本权当抛砖引玉,可以再深度定制。

域传送漏洞

·常用DNS记录

·DNS区域传送

·域传送漏洞

检测

-nmap脚本扫描

-dig命令

-nslookup

在线DNS数据

·VirusTotal

·DNSdumpster

·自身泄露

robots.txt

crossdomain.txt

子域名挖掘

posted @ 2024-10-25 08:19  configer  阅读(61)  评论(0)    收藏  举报