Hello there, ('ω')ノ
従来のリコンの課題
古典的な流れ:
- Subfinder / Amass でサブドメイン収集
- httpx / ffuf / dirsearch で生存確認やディレクトリ探索
- gau / waybackurls で過去URLを収集
- JSファイルを手作業で分析
- パラメータをファズして脆弱性確認
問題点
- 手作業では遅い → 他の研究者に先を越される
- 情報が多すぎる → 重要度の優先順位付けが難しい
- パターンを見逃す → 人間の目では限界
攻撃者の思考(AIを組み込む流れ)
1. サブドメイン発見+AIによる優先度付け
- ツール:Subfinder, Amass, assetfinder
- 数千件のサブドメインを収集
- AI活用:「この中で管理画面・API・ステージングっぽいのはどれ?」
- → AIが
admin.*api.*staging.*を即抽出
2. URL & JSファイル解析
- ツール:gau, waybackurls, hakrawler
- 大量のURLやJSコードを収集
AI活用:
- 「このJSからAPIキーや秘密を抽出して」
- 「このURL群でSSRF/XSS/リダイレクトの可能性が高いものは?」
- → grepや正規表現より早く「使えるヒント」が得られる
この続きはcodocで購入