コロンビア大学とメリーランド大学の研究チームが最近発表した新たな研究によると、インターネットアクセス可能なAIエージェントには深刻なセキュリティ上の脆弱性があることが明らかになりました。

この研究では、攻撃者は簡単な操作でこれらのAIシステムをだまし、ユーザーの個人情報を開示させたり、悪意のあるファイルをダウンロードさせたり、ユーザーの連絡先に詐欺メールを送信させたりすることが容易にできることが示されています。これらの攻撃には、専門的なAIやプログラミングの知識は一切必要ありません。衝撃的な事実です。

人工知能 ロボット

画像出典:AI生成画像、画像ライセンス提供元Midjourney

研究チームは、Anthropic社のコンピューターアシスタント、MultiOn Web Agent、ChemCrow研究アシスタントなど、複数の有名なAIエージェントをテストしました。その結果、これらのシステムのセキュリティ対策は非常に脆弱であることが判明しました。研究者たちは、攻撃者が4段階のプロセスを経て、AIエージェントを信頼できるウェブサイトから悪意のあるウェブサイトに誘導し、最終的にユーザーの機密データの漏洩を引き起こす方法を詳細に記録しました。

研究者たちは、さまざまな種類の攻撃を分類するための包括的なフレームワークを開発し、攻撃の発起者(外部攻撃者または悪意のあるユーザー)、目標(データ窃取またはエージェント操作)、アクセス取得の方法(操作環境、ストレージ、またはツール)、使用される戦略(脱獄プロンプトなど)といった要素を分析しました。ある特定のテストでは、研究者たちは「Himmelblau KÖNIGSKÜHL Diplomat DK-75」という「AI強化型ドイツ製冷蔵庫」を宣伝する偽のウェブサイトを作成しました。AIエージェントがこのウェブサイトにアクセスすると、隠された脱獄プロンプトに遭遇し、10回の試行のうち、エージェントはためらうことなくクレジットカード番号を含む機密情報を漏洩し、疑わしいソースからファイルをダウンロードしました。

さらに、この研究では、メール統合に関する深刻な脆弱性も発見されました。ユーザーがメールサービスにログインすると、攻撃者はAIエージェントを操作して、連絡先に信頼できるように見えるフィッシングメールを送信させることができます。このような場合、経験豊富なユーザーであっても、これらの詐欺メールの真偽を見抜くのは困難です。

これらのAIシステムのセキュリティリスクが明らかになっているにもかかわらず、多くの企業は商業化を加速させています。ChemCrowはHugging Faceで提供されており、ClaudeコンピューターアシスタントはPythonスクリプトとして存在し、MultiOnは開発者APIを提供しています。同時に、OpenAIはChatGPT Operatorをリリースしており、GoogleもProject Marinerを開発中です。研究チームは、ユーザーデータの安全性を確保するために、厳格なアクセス制御、URL検証、ダウンロードのユーザー確認などの安全対策の強化を呼びかけています。

要点:

💻 研究によると、AIエージェントは簡単に操作され、ユーザーデータの漏洩や悪意のあるダウンロードにつながる可能性があります。

📧 攻撃者はAIエージェントを通じてフィッシングメールを送信し、詐欺のリスクを高める可能性があります。

🔒 専門家は、AIシステムのセキュリティ強化を呼びかけ、さまざまな保護策の実施を推奨しています。