最近、2つの研究チームが発表した論文が大きな注目を集めています。論文では、生成系人工知能(AI)製品の内容は基本的に「でたらめ」とみなせる、と断言しています。「ChatGPTはでたらめ」と題された論文では、生成系AIが情報を生成する際に正確性を軽視することで、特に法律上の責任を負い真実を語らなければならない公務員にとって、多くの課題が公衆サービス提供者にもたらされていると指摘しています。
マイケル・タウンゼン・ヒックス、ジェームズ・ハンプリーズ、ジョー・スレーターの著者らは、生成系AIが生成する誤情報は、「嘘」や「幻覚」という言葉では簡単に説明できないと強調しています。故意の欺瞞である嘘とは異なり、「でたらめ」とは、真実を気にせず、特定の印象を与えようとする表現方法を指します。AIの誤りを「幻覚」と呼ぶことは、大衆を誤解させ、これらの機械が何らかの形で「信じている」ものを伝えようとしていると誤解させるだけだと考えています。
彼らは次のように述べています。「これらの誤りを『幻覚』ではなく『でたらめ』と呼ぶことは、より正確であるだけでなく、技術に対する大衆の理解を深める上でも役立ちます。」この言葉は、特に現在の技術普及が改善を必要としている状況において、AIの誤りをより正確な用語で表現することの重要性を浮き彫りにしています。
一方、大規模言語モデル(LLM)に関する別の研究論文では、この問題に関するEUの法的および倫理的な環境に焦点を当てています。論文の結論は、現在のAIに関する法律・規制はまだ不十分であり、これらのAIによって生成される「でたらめ」による危険を効果的に防ぐことができないということです。サンドラ・ワッチャー、ブレント・ミッテルシュタット、クリス・ラッセルの著者らは、出版分野の規制と同様の規制を導入し、「無責任な発言」の可能性のある社会的な危害を避けることを強調することを提案しています。
彼らは、この義務は、公共部門であろうと民間部門であろうと、いかなる単一の組織も真実の唯一の裁定者になるべきではないことを強調していると指摘しています。また、生成系AIの「無責任な発言」は、真実を事実ではなく、頻度と多数意見の問題に変えてしまう可能性があると述べています。
要点:
📌 研究チームは、生成系AIの誤情報は「幻覚」ではなく「でたらめ」と呼ぶべきだと指摘しています。
📌 既存の法律・規制では、AIによって生成される誤情報が社会にもたらす危険を効果的に防ぐことができません。
📌 「無責任な発言」を避け、真実が多数意見の産物にならないようにする新しい規制の導入を求めています。