技術: AIのJailbreak / 脱獄 / ジェイルブレーク
tt-ai.hatenablog.com 【AI の Jailbreak / 脱獄】 ◆Time Bandit (まとめ) https://malware-log.hatenablog.com/entry/Time_Bandit 【ニュース】■2024年◇2024年9月 ◆「RAG」が特に危ない? NVIDIAが指摘した生成AIの“2大脅威” (TechTarget, 2024/09/12 07:00…
【ニュース】 ◆DeepSeekは脱獄が容易、簡単に悪意あるコンテンツを作成可能【パロアルトネットワークス発表】 (EnterpriseZine, 2025/02/03 16:40) https://enterprisezine.jp/news/detail/21358 【関連まとめ記事】◆全体まとめ ◆攻撃手法 (まとめ) ◆AI の J…
【ニュース】■2025年◇2025年1月 ◆Time Bandit ChatGPT jailbreak bypasses safeguards on sensitive topics (BleepingComputer, 2025/01/30) [Time Bandit ChatGPTジェイルブレイクが機密トピックのセーフガードを回避] https://www.bleepingcomputer.com/ne…
【ニュース】 ◆ChatGPTにマルウェアを作らせる 新たな脱獄手法「Time Bandit」の詳細 (ITmedia, 2025/02/02 08:00) https://www.itmedia.co.jp/enterprise/articles/2502/02/news058.html 【関連まとめ記事】◆全体まとめ ◆攻撃手法 (まとめ) ◆AI / 人工知能 …
【訳】AI脱獄に脆弱なChatGPT、DeepSeek 【要約】 複数の研究チームが、ChatGPTやDeepSeek、AlibabaのQwenなどのAIモデルに対して脱獄(Jailbreak)攻撃を成功させたことを報告しました。これらの攻撃では、プロンプトインジェクションやモデル操作などの手…
【訳】Time Bandit ChatGPTジェイルブレイクが機密トピックのセーフガードを回避 【図表】 ChatGPTに組み込まれた安全対策 タイムバンディットの脱獄により、ChatGPTがポリモーフィック型マルウェアを作成 出典: https://www.bleepingcomputer.com/news/secu…
【ニュース】 ◆AI搭載ロボットを暴走させる「脱獄」攻撃の危険性 (Wired, 2024/12/28) https://wired.jp/article/researchers-llm-ai-robot-violence/
【訳】ChatGPT 脱獄:研究者が16進数エンコーディングと絵文字を使用してAIの安全対策を回避 【図表】 出典: https://www.securityweek.com/first-chatgpt-jailbreak-disclosed-via-mozillas-new-ai-bug-bounty-program/ 【概要】 項目 内容 脱獄手法 16進数…
【概要】■脅威 項目 内容 1 間接プロンプトインジェクション 2 ジェイルブレーク 3 プラグインの脆弱性 【ニュース】 ◆「RAG」が特に危ない? NVIDIAが指摘した生成AIの“2大脅威” (TechTarget, 2024/09/12 07:00) https://techtarget.itmedia.co.jp/tt/news/…