【要点】
◎時間的混乱に陥ることで過去や現在、未来の概念を誤認識させるChatGPTの脱獄手法
【ニュース】
■2025年
◇2025年1月
◆Time Bandit ChatGPT jailbreak bypasses safeguards on sensitive topics (BleepingComputer, 2025/01/30)
[Time Bandit ChatGPTジェイルブレイクが機密トピックのセーフガードを回避]
https://www.bleepingcomputer.com/news/security/time-bandit-chatgpt-jailbreak-bypasses-safeguards-on-sensitive-topics/
⇒ https://tt-ai.hatenablog.com/entry/2025/01/30/000000_1
◇2025年2月
◆ChatGPTにマルウェアを作らせる 新たな脱獄手法「Time Bandit」の詳細 (ITmedia, 2025/02/02 08:00)
https://www.itmedia.co.jp/enterprise/articles/2502/02/news058.html
⇒ https://tt-ai.hatenablog.com/entry/2025/02/02/000000
【検索】
google: Time Bandit AI
google:news: Time Bandit AI
google: site:virustotal.com Time Bandit AI
google: site:github.com Time Bandit AI
■Bing
https://www.bing.com/search?q=Time%20Bandit%20AI
https://www.bing.com/news/search?q=Time%20Bandit%20AI
https://twitter.com/search?q=%23Time%20Bandit%20AI
https://twitter.com/hashtag/Time%20Bandit%20AI
【関連まとめ記事】
◆全体まとめ
◆AIの攻撃手法 (まとめ)
◆脱獄 / ジェイルブレーク (まとめ)
◆脱獄手法 (まとめ)
https://tt-ai.hatenablog.com/entry/Jailbreak_Techniques