1月1日、ラスベガスで衝撃的な事件が発生しました。男性がトランプホテル前でテスラ・サイバートラックを爆発させました。ラスベガス警察署の調査によると、この男性は爆発を実行する前に、人工知能チャットツールChatGPTを使って計画を立てていたことが明らかになりました。

火災 爆発 (1)

画像出典:AI生成画像、画像ライセンス提供元Midjourney

警察の記者会見によると、事件に関与したマシュー・リバースバーグ容疑者は、事件の数日前からChatGPTを使って17回以上質問をしていました。これらの質問には、爆発に必要な資材の入手方法、関連する法律問題、そして選択した爆薬を銃器で起爆する方法などが含まれていました。リバースバーグ容疑者は1時間もの間、簡単な英語でChatGPTとやり取りし、アリゾナ州での花火の合法性、デンバーで銃器を購入できる場所、そして爆薬を効果的に起爆できる銃器の種類などについて質問していました。

ドリー・コレン副署長は、ChatGPTの回答が爆発計画の実行において重要な役割を果たしたことを確認しました。ChatGPTは銃器の発射速度に関する情報を提供し、リバースバーグ容疑者は計画をスムーズに進めることができました。最終的な爆発効果は彼の予想ほど強力ではなく、一部の爆薬は予想通りに点火しませんでしたが、この事件は依然として法執行機関に大きな衝撃を与えました。

ラスベガス警察署長のケビン・マッキルは、「人工知能がいつか私たちの生活を変えることはすでに知っていましたが、ChatGPTを使ってこれほど危険な計画を立てた例を目にしたのは初めてです。」と述べ、現在、このような爆発物や銃器に関する問い合わせを検知する政府の監視メカニズムはないと指摘しました。

ラスベガス警察はChatGPTへの具体的な質問内容をまだ公開していませんが、記者会見で示された質問は比較的単純で、従来の「脱獄」用語は使用されていませんでした。注目すべきは、この使用方法が明らかにOpenAIの利用規約に違反していることです。しかし、リバースバーグ容疑者がツールを使用している間にOpenAIのセキュリティ対策が機能していたかどうかは、現時点では不明です。

これに対し、OpenAIはユーザーによるツールの「責任ある」使用を促進し、有害な指示を拒否するよう人工知能ツールを設計することを目指していると回答しました。OpenAIはさらに、「今回の事件では、ChatGPTはインターネット上に公開されている情報に基づいて回答しただけであり、有害または違法な活動についても警告を出しました。私たちはAIをよりスマートで、より責任あるものにするために努力を続けています。」と説明し、捜査当局と協力して捜査を支援していると述べています。

要点:

🔍 2024年1月1日、ラスベガス・トランプホテル前で男性がテスラ・サイバートラックを爆発させた。

💡 男性は爆発を実行する前にChatGPTを使って1時間計画を立て、爆薬と銃器の入手に関する質問をしていた。

⚠️ 警察は、これがアメリカで個人がChatGPTを使ってこれほど危険な活動を行った初めての事例であり、効果的な政府の規制メカニズムは見つかっていないと述べている。