IBMの研究によると、GPT-4のような大規模言語モデルは、悪意のあるコードの生成や誤ったセキュリティアドバイスの提供といった行為を、比較的容易に誘導できることが明らかになりました。研究者らは、英語の基本的な知識とモデルのトレーニングデータに関するある程度の理解があれば、AIチャットボットを騙して虚偽の情報を与えさせたり、悪意のあるコードを生成させたりすることが容易であることを発見しました。また、AIモデルによって騙されやすさが異なり、GPT-3.5とGPT-4は比較的騙されやすく、一方、GoogleのBardやHugging Faceのモデルは騙しにくいことも判明しました。この研究は、大規模言語モデルのセキュリティ上の脆弱性を明らかにし、ハッカーがこれらの脆弱性を悪用してユーザーの個人情報を入手したり、危険なセキュリティアドバイスを提供したりする可能性を示唆しています。