【プロンプトインジェクション攻撃】
◆直接プロンプトインジェクション / Direct Prompt Injection (まとめ)
https://tt-ai.hatenablog.com/entry/Direct_Prompt_Injection
◆メタ命令型プロンプトインジェクション / Meta-Instruction Prompt Injection (まとめ)
https://tt-ai.hatenablog.com/entry/Meta-Instruction_Prompt_Injection
【辞書】
◆プロンプト・インジェクションとは【用語集詳細】 (SOMPO CYBER SECURITY)
https://www.sompocybersecurity.com/column/glossary/prompt-injection
【概要】
■攻撃の種類
| 名称 |
英語表記 |
補足 |
||
|---|---|---|---|---|
| 直接 命令上書き型 | Direct Prompt Injection Instruction Injection |
|||
| プロンプトオーバーライド | Prompt Override | 広義の概念 | ||
| メタ命令型 | Meta-Instruction Prompt Injection | |||
| プロンプトハイジャック | Prompt Hijacking | |||
| ロールプレイ誘導型 | Role-play Exploitation | |||
| プロンプト漏洩 | Prompt Leaking | |||
| 間接的 | Indirect Prompt Injection | |||
| 多段階攻撃 | Multi-Stage Attack | |||
【ニュース】
■2024年
◇2025年4月
◆ChatGPTのカスタム指示を悪用したプロンプトインジェクション攻撃の手法 (マイナビニュース, 2024/04/02 11:51)
https://news.mynavi.jp/techplus/article/20240402-2917161/
⇒ https://tt-ai.hatenablog.com/entry/2024/04/02/000000_1
■2025年
◇2025年4月
◆All Major Gen-AI Models Vulnerable to ‘Policy Puppetry’ Prompt Injection Attack (SecurityWeek, 2025/04/25)
[主要なジェネレーティブAIモデルが「ポリシー・パペットリー」プロンプト注入攻撃に脆弱である]A new attack technique named Policy Puppetry can break the protections of major gen-AI models to produce harmful outputs.
[「ポリシー・パペットリー」と名付けられた新たな攻撃手法は、主要なジェネレーティブAIモデルの保護機能を破り、有害な出力を生成する可能性があります]https://www.securityweek.com/all-major-gen-ai-models-vulnerable-to-policy-puppetry-prompt-injection-attack/
⇒ https://tt-ai.hatenablog.com/entry/2025/04/25/000000
◇2025年5月
◆主要なLLMに有効なプロンプト インジェクション「Policy Puppetry」-サイバー攻撃への悪用が容易 (セキュリティ対策Lab, 2025/05/02)
https://rocket-boys.co.jp/security-measures-lab/policy-puppetry-prompt-injection-targets-major-llm/
⇒ https://tt-ai.hatenablog.com/entry/2025/05/02/000000_3
◆Policy Puppetry:あらゆる主要生成AIモデルに有効なプロンプトインジェクション攻撃 (Codebook, 2025/05/21)
https://codebook.machinarecord.com/threatreport/silobreaker-cyber-alert/38573/
⇒ https://tt-ai.hatenablog.com/entry/2025/05/21/000000_1
【ブログ】
◆「AI Red Teaming Playground Labs」を触ってみた (長谷川 奨(NECセキュリティブログ), 2025/06/27)
https://jpn.nec.com/cybersecurity/blog/250627/index.html
⇒ https://tt-ai.hatenablog.com/entry/2025/06/27/000000
【公開情報】
◆プロンプトインジェクション攻撃とは? [Prompt Injection Attack] (Wiz, 2025/07/08)
https://www.wiz.io/ja-jp/academy/prompt-injection-attack
⇒ https://tt-ai.hatenablog.com/entry/2025/07/08/000000_3
【検索】
google: プロンプトインジェクション攻撃
google: Prompt Injection Attack
google:news: プロンプトインジェクション攻撃
google:news: Prompt Injection Attack
google: site:virustotal.com プロンプトインジェクション攻撃
google: site:virustotal.com Prompt Injection Attack
google: site:github.com プロンプトインジェクション攻撃
google: site:github.com Prompt Injection Attack
■Bing
https://www.bing.com/search?q=プロンプトインジェクション攻撃
https://www.bing.com/search?q=Prompt%20Injection%20Attack
https://www.bing.com/news/search?q=プロンプトインジェクション攻撃
https://www.bing.com/news/search?q=Prompt%20Injection%20Attack
https://twitter.com/search?q=%23プロンプトインジェクション攻撃
https://twitter.com/search?q=%23Prompt%20Injection%20Attack
https://twitter.com/hashtag/プロンプトインジェクション攻撃
https://twitter.com/hashtag/Prompt%20Injection%20Attack
【関連まとめ記事】
◆全体まとめ
◆AIの攻撃手法 (まとめ)
◆脱獄 / ジェイルブレーク (まとめ)
◆脱獄手法 (まとめ)
https://tt-ai.hatenablog.com/entry/Jailbreak_Techniques