Anthropic社がClaudeにデバイス制御機能「Computer Use」を追加してからまだ2ヶ月も経たないうちに、セキュリティ研究者によって潜在的なセキュリティ脆弱性が発見されました。ネットセキュリティ専門家Johann Rehnberger氏の最新研究結果によると、簡単なプロンプトインジェクションによって、AIがマルウェアのダウンロードと実行を誘導される可能性があることが明らかになりました。
Rehnberger氏は、この脆弱性攻撃手法を「ZombAIs」と名付けました。デモでは、ClaudeにSliver(元々はレッドチームテスト用のオープンソースのC&Cフレームワークだが、現在ではハッカーによってマルウェアツールとして広く使用されている)のダウンロードに成功しました。さらに懸念されるのは、これは氷山の一角に過ぎないということです。研究者によると、AIは悪意のあるコードの作成、コンパイル、実行を誘導され、攻撃方法は防ぎようがないと言われています。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
注目すべきは、このようなセキュリティリスクはClaude特有のものではないということです。セキュリティ専門家は、DeepSeek AIチャットボットにもプロンプトインジェクションの脆弱性があり、攻撃者がユーザーのコンピューターを乗っ取る可能性があることを発見しました。さらに、大規模言語モデルはANSIエスケープコードを出力し、「Terminal DiLLMa」と呼ばれる攻撃を引き起こし、システムターミナルを乗っ取る可能性があります。
これに対して、Anthropic社はテスト版の声明でユーザーに次のように警告しています。「Computer Use機能は常に期待通りに動作するとは限りません。予防措置として、Claudeを機密データや操作から隔離し、プロンプトインジェクション関連のリスクを回避することをお勧めします。」
この事件は、AI技術の急速な発展に伴い、セキュリティ問題を無視できないことを改めて示しています。開発者は機能とセキュリティのバランスを見つける必要があり、ユーザーはAIツールを使用する際にセキュリティ意識を高め、必要な保護措置を講じる必要があります。