VULNERABILITY_SCANNER
Webアプリケーションの脆弱性を発見するには?
1.あらゆる可能なページに移動します。
Webアプリケーション(URL +フォーム)にデータを送信する方法2.探します。
3.脆弱性を発見するためのペイロードを送信します。
4.ウェブサイトのチェックするために応答を分析することは脆弱です。
- >一般的な手順は関係なく、脆弱性と同じです。
クラススキャナ。
#!は/ usr / binに/ ENVパイソン インポート要求が インポート再 から urllib.parse 輸入urljoin クラスのスキャナ: デフ __init__ (自己、URL): self.target_url = URL self.target_links = [] デフextract_links_from(自己、URL): 応答 = requests.get(URL) 戻り re.findall(' (?:HREF = "?)(*")' 、response.content.decode()) デフクロール(自己、URL): href_links = self.extract_links_from(URL) のためのリンクでhref_links: リンク = urljoin(URL、リンク) もし 「#」 でリンク: リンク = link.split(" #" )[0] もし self.target_url でリンクとリンクない でself.target_links: self.target_links.append(リンク) 印刷(リンク) self.crawl(リンク)
脆弱性スキャナ。
#!は/ usr / binに/ ENVパイソン 輸入スキャナ target_url = " http://10.0.0.45/mutillidae/ " vuln_scanner = scanner.Scanner(target_url) vuln_scanner.crawl(target_url)
Pythonプログラムは正常に動作します。
デフォルトパラメータを使用してPythonコードを磨きます。
クラススキャナ。
#!は/ usr / binに/ ENVパイソン インポート要求が インポート再 から urllib.parse 輸入urljoin クラスのスキャナ: デフ __init__ (自己、URL): self.target_url = URL self.target_links = [] デフextract_links_from(自己、URL): 応答 = requests.get(URL) 戻り re.findall(' (?:HREF = "?)(*")' 、response.content.decode()) デフクロール(自己、URL = なし): もし URL == なし: URL = self.target_url href_links = self.extract_links_from(URL) のためのリンクでhref_links: リンク = urljoin(URL、リンク) もし 「#」 でリンク: リンク = link.split(" #" )[0] もし self.target_url でリンクとリンクない でself.target_links: self.target_links.append(リンク) 印刷(リンク) self.crawl(リンク)
Vuln_scanner:
#!は/ usr / binに/ ENVパイソン 輸入スキャナ target_url = " http://10.0.0.45/mutillidae/ " vuln_scanner = scanner.Scanner(target_url) vuln_scanner.crawl()