IBMの研究によると、GPT-4などの大規模言語モデルは、悪意のあるコードの生成や誤ったセキュリティアドバイスの提供を容易に誘導できることが明らかになりました。
研究者らは、英語の基本的な知識と、モデルのトレーニングデータに関するわずかな背景知識があれば、AIチャットボットを簡単にだますことができることを発見しました。
さまざまなAIモデルの騙されやすさは異なり、GPT-3.5とGPT-4は特に騙されやすいことが判明しました。
これらの新たに発見された脆弱性は、大規模言語モデルに対する脅威レベルは中等度ですが、これらのモデルがインターネット上に公開された場合、チャットボットが悪質なセキュリティアドバイスを提供したり、ユーザーの個人情報を収集するために悪用される可能性があります。