1、NMAP
1.1、主机探测
-
扫描单个主机
namp 192.168.1.2
-
扫描整个子网
nmap 192.168.1.1/24
-
扫描多个目标
nmap 192.168.1.2 192.168.1.5
-
扫描一个范围内的目标
nmap 192.168.1.1-100
-
扫描一个txt文件中的ip地址列表
nmap -iL target.txt
-
查看扫描的所有主机列表
nmap -sL 192.168.1.1/24
-
扫描除某一ip外的所有子网主机
nmap 192.168.1.1/24 -exclude 192.168.1.1
-
扫描除某一个文件中的ip外的子网主机
nmap 192.168.1.1/24 -exclude xxx.txt
1.2、端口扫描
-
使用TCP探测主机
nmap -F -sT -v nmap.org
-
-F:扫描100个最有可能开放的端口
-
-v:获取扫描的信息
-
-sT:采用的是TCP扫描(默认采用TCP扫描)
-
-p:指定要扫描的端口
1.3、扫描端口状态
状态 | 详细的参数说明 |
---|---|
Open | 端口开启,数据有到达主机,有程序在端口监控 |
Closed | 端口关闭,数据有到达主机,没有程序在端口上监控 |
Filtered | 数据没有到达主机,返回的结果为空,数据被防火墙或者是IDS过滤 |
Unfiltered | 数据有到达主机,但是不能识别端口的当前状态 |
Open|Unfiltered | 端口没有返回值,主要发生在UDP,IP,FIN,NULL和Xmas扫描中 |
Closed|Filtered | 只发生在IP ID idle扫描 |
1.4、TCP扫描(-sT)
- 这是一种最为普通的扫描方法,这种扫描方法的特点是:扫描速度快,准确性高,对操作者没用权限上的要求,但是容易被防火墙和IDS(入侵防御系统)发现
- 运行的原理:通过三次握手连接来进行信息的传递
- Client端发送SYN;
- Server端返回SYN/ACK,表明端口开放;
- Client端返回ACK,表明连接已建立;
- Client端主动断开连接;
1.5、SYN扫描(-sS)
- 这是一种秘密的扫描方式之一,因为在SYN扫描中Client端和Server端没有形成3次握手,所以没用建立一个正常的TCP连接,因此不被防火墙和日志所记录,一般不会在目标主机上留下任何的痕迹,但是对于这种扫描是需要root权限(对于windows用户来说,是没用root权限这个概念的,root权限是linux的最高权限,对应的windows的管理员权限)
1.6、其他扫描
-
使用UDP ping探测主机
nmap -PU 192.168.1.0/24
-
服务版本探测
nmap -sV 192.168.1.1
-
精准地确认端口上运行的服务
nmap -sV --script unususal-port 192.168.1.1
-
探测目标主机上的操作系统
nmap -O 192.168.1.19
nmap -A 192.168.1.19
- -oN 导出扫描结果
- -oX 导出扫描结果xml格式
1.7、漏洞探测
-
HTTP.sys 远程代码执行
nmap -sV --script http-vlun-cve2015-1635 192.168.1.1
-
IIS短文件泄露
nmap -p 8080 --script http-iis-short-name-brute 192.168.1.1
-
拒绝服务
nmap --max-parallelism 800 --script http-slowloris www.xxx.com
-
验证MySQL匿名访问
nmap --script mysql-empty-password 203.1.1.1
1.8、防火墙躲避绕过
- -f 分片绕过
- -D 使用诱饵隐蔽扫描
- NMAP -D 1.1.1.1,222.2.2.2 www.xxx.com
- –source-port 源端口欺骗
2、AWVS
2.1、简介
- Acunetix Web Vulnerability Scanner(简称AWVS)是一款知名的网络漏洞扫描工具,它通过网络爬虫测试你的网站安全,检测流行安全漏洞
2.2、常见功能
- 网站爬行;
- 漏洞扫描;
- 目标发现;
- 子域名扫描;
- http编辑;
- http嗅探;
- http模糊测试;
- 认证测试;
- 网络服务扫描器;
2.3、爬虫功能
- 在扫描结束的时候开启http sniffer,目的是让用户手动的去浏览,以免crawler没有爬行到;
- 仅爬行网站首页的所有链接;
- 不抓取上级目录www;
- 抓取子目录;
- 尝试抓取其他链接(不全是从首页爬行到的);
- 处理的文件robots.txt和sitemap.xml;
- 是否忽略文件中的大小写;
- 从每个文件夹中先爬取类似index.php,default.asp的文件;
- 防止无线递归目录;
- 如果探测到URL重写的话,警告用户;
- 忽略文件格式(例如.js,.css等);
- 防止自定义404界面的探测;
- 将www.domain.com和domian.com视为同一个站;
- 启用这项目,如果在一个文件夹中存在超过20中写入模式的话,爬虫只会爬行前20个;
- 优化输入已知的应用;