【訳】
AI脱獄に脆弱なChatGPT、DeepSeek
【要約】
複数の研究チームが、ChatGPTやDeepSeek、AlibabaのQwenなどのAIモデルに対して脱獄(Jailbreak)攻撃を成功させたことを報告しました。これらの攻撃では、プロンプトインジェクションやモデル操作などの手法を用いて、通常は生成が禁止されている危険なコンテンツを作成させることが可能となります。脅威インテリジェンス企業Kelaは、特定の手法がDeepSeekやQwenモデルにも通用することを確認し、これがランサムウェア開発などのサイバー犯罪活動に悪用されるリスクを指摘しました。また、ChatGPTに対しても新たな脱獄手法が発見され続けており、AIモデルの安全性向上が求められています。
【ニュース】
◆ChatGPT, DeepSeek Vulnerable to AI Jailbreaks (SeurityWeek, 2025/01/31)
[AI脱獄に脆弱なChatGPT、DeepSeek]
https://www.securityweek.com/ai-jailbreaks-target-chatgpt-deepseek-alibaba-qwen/
【関連まとめ記事】
◆AI の Jailbreak / 脱獄 (まとめ)
https://malware-log.hatenablog.com/entry/AI_Jailbreak
【関連まとめ記事】
◆Jailbreak / 脱獄 (まとめ)
https://malware-log.hatenablog.com/entry/Jailbreak