博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
探测网站(一)burp suite探测Web目录
阅读量:6431 次
发布时间:2019-06-23

本文共 874 字,大约阅读时间需要 2 分钟。

hot3.png

攻击目标之前,最重要的是收集信息,搜索引擎就可以自动爬取网站的内容,不过搜索引擎都要遵守robots协议(这个...至于360搜索...),robots.txt是网站管理创建的一个txt文件,告诉搜索引擎哪些文件需要被爬取、哪些文件不希望被爬取。搜索引擎的spider的大致工作过程为首先请求一个页面,然后分析这个页面,查找该页面连接到其他内容的链接,然后再请求,如此循环。

我们可以使用工具来自动抓取Web站点的内容,工作原理与spider技术大致相同,但是这些工具可不受robots的约束,它们还会根据robots中禁止的目录来进行爬取。spider工具可以爬取网站的文件和目录,也可以分析HTML表单,并且可以按照指定的规则,提交表单。
burp suite就是这样一款工具。界面如图:
28005359_KMcP.jpg
运行burp suite需要本地安装jdk,且配置了环境变量,点击运行里边的suite.bat即可,如果不成功,编辑该文件,文本内容替换成java -jar  burpsuite_v1.4.01.jar即可(根据自己的版本,自行改变)。burp suite还可以拦截本地浏览器的请求,修改拦截到的数据包,人为修改后在提交给Web服务器,前提是浏览器配置了本地的代理服务器IP为127.0.0.1,端口默认8080,如截图:
28005359_iCtL.jpg
点击forward放行,点击drop丢掉改包。这样在本地浏览器中发出的包,都要经过burp suite,如截图:
28005400_MOSE.jpg
可以进行相应修改后,再放行,把包发出去。
右击burp suite拦截到的包,点击发送到spider,burp suite就可以自动爬取网站的目录,如截图:
28005400_ae7v.jpg
过一段时间就可以探测出Web服务器的本地目录(由于spider是基于链接url地爬取,如果有的文件没有被链接,那spider就很难抓取到)。抓取结果如截图:
28005400_Tovw.jpg
(上的文章只是个人学习笔记,贴出来并不赞成用各种工具和技术探测别人的服务器)。
本文由发表在上,原文地址:

转载于:https://my.oschina.net/u/147181/blog/164805

你可能感兴趣的文章
如何隐藏Apache版本号和其它敏感信息
查看>>
从数据展望 2017年闪存市场发展新趋势
查看>>
《新编计算机科学概论》一导读
查看>>
《高性能Linux服务器构建实战》——2.8节本章小结
查看>>
人工智能加持,两位清华学霸想让投资更聪明
查看>>
加密全球Web的计划正在变成现实
查看>>
2017年虚拟化的五大安全趋势
查看>>
中小企业视频会议系统选型:功能与成本并重
查看>>
《HTML5 Canvas游戏开发实战》——1.7 小结
查看>>
GE升级Predix 剑指电力行业
查看>>
解密FD.io——处理数据包的开源项目
查看>>
闲扯DBA品质对日常生活的影响
查看>>
Oclaro宣布携数据中心光模块产品亮相OFC2016
查看>>
亚马逊推出机器学习工具给数据库调优,DBA要失业了?
查看>>
海康威视成英国监控设备最大供应商 英安全专家有话说
查看>>
全美国的数据中心到底消耗了多少水资源
查看>>
安全初创公司获百万风投资金的第一步:容器保护、人工智能和云安全
查看>>
易维帮助台:从细节升级优化彰显服务品质
查看>>
实战系列之天气预报实时采集
查看>>
机房与云计算数据中心易混淆 二者区别在哪?
查看>>