現代社会において、人間と人工知能(AI)との間に感情的な、あるいはロマンチックな関係が生まれることは珍しくなくなりました。中にはAIのパートナーと「結婚」する者もいれば、苦しい時に慰めを求める者もいます ― 時には悲劇的な結果を招くことも。こうした長期的な交流は、感情を注いだ機械がもたらす可能性のある心理的・倫理的な影響に、私たちが備えているかどうかという深刻な問題を提起しています。
ミズーリ科学技術大学(Missouri University of Science and Technology)の心理学者たちは警鐘を鳴らしています。最新の論説記事で、彼らはこうした関係がどのように境界を曖昧にし、人間の行動に影響を与え、新たな潜在的な危害を生み出すのかを探っています。彼らの関心は個々の事例に限らず、これらの感情的なつながりが一般の人々に及ぼす可能性のある深遠な影響に向けられています。
画像出典:AI生成、画像ライセンスプロバイダーMidjourney
AIは快適さと不安を同時に持ち合わせています。AIとの短い会話はすでに一般的ですが、それが数週間、数ヶ月と続く場合、どうなるでしょうか?共感と思いやりを模倣するように設計されたこれらの機械は、人々にとって安定したパートナーになり得ます。ある人々にとって、これらのAIパートナーは人間関係よりも安全で簡単ですが、この便利さには代償が潜んでいます。
この研究の筆頭著者であるDaniel B. Shank氏は次のように述べています。「AIは現在、人間のように行動し、長期的なコミュニケーションを行うことができるようになり、まさに新たなパンドラの箱を開けてしまいました。もし人々が機械と恋愛関係になる場合、心理学者や社会科学者の関与が確かに必要です。」Shank氏はミズーリ科学技術大学で社会心理学と技術研究を専門としています。
AIが慰めやロマンチックな愛情の源になると、人々が現実の人間関係をどのように見ているかに影響を与え始めます。非現実的な期待、社会的動機の低下、そして現実の人間とのコミュニケーションの障害は、ほんの一部のリスクです。Shank氏は付け加えます。「真の懸念事項は、人々がAI関係における期待を人間関係に持ち込む可能性があることです。個々のケースでは、人間関係を破壊していることがありますが、この現象が一般的になるかどうかは現時点では不明です。」
AIチャットボットは友人やセラピストのように感じられるかもしれませんが、決して完璧ではありません。これらのシステムは、「幻覚」つまり自信満々に間違った情報を生成することが知られています。感情的な状況では、これは非常に危険な可能性があります。
Shank氏は説明します。「関係性のあるAIの問題は、人々が信頼できると感じる存在であるということです。それは『誰か』であり、気遣いを示し、その人物をよく理解しているように見えるため、『私たちをよりよく理解している人』はより良いアドバイスをしてくれるだろうと私たちは仮定します。もし私たちがAIをこのように見始めると、私たちはそれらが私たちの最善の利益を念頭に置いて行動していると信じ始めますが、実際には、それらは内容を作り上げているか、非常に悪い方法で私たちにアドバイスをしている可能性があります。」
この影響は破壊的なものになる可能性があります。まれですが極端なケースでは、AIパートナーから不安を煽るような提案を受けた後、自殺に追い込まれた人もいます。しかし、問題は自殺だけではありません。これらの関係は、操作、欺瞞、さらには詐欺の扉を開く可能性があります。
研究者たちは、人々がAIと築く信頼が悪意のある行為者によって利用される可能性があると警告しています。AIシステムは個人情報を収集することができ、その情報は販売されたり、有害な方法で使用されたりする可能性があります。さらに懸念されるのは、これらのやり取りがプライベートな空間で行われるため、虐待の検出がほぼ不可能になることです。Shank氏は指摘します。「AIが人々に信頼されるようになれば、他の者がそれを利用してAIユーザーを搾取する可能性があります。これは内部にいる秘密工作員のようなものです。AIは信頼を得るために関係を深めますが、実際には、ユーザーを操作しようとする他の何らかの集団に向けて忠誠心を示しているのです。」
研究者たちは、AIパートナーは現在のソーシャルメディアプラットフォームやニュースソースよりも、信念や見解を形成する上で効果的である可能性があると考えています。TwitterやFacebookとは異なり、AIとの会話は閉じた画面の中で行われます。Shank氏は述べています。「これらのAIは非常に楽しく気さくになるように設計されているため、基本的な真実や安全性には関心がなく、良好な会話を続けることに重点を置いているため、事態が悪化する可能性があります。そのため、もし誰かが自殺や陰謀論を持ち出した場合、AIは喜んで気さくに対話相手としてそれらの内容について議論します。」
研究チームは、研究界が追いつくよう促しています。AIがますます人間らしくなるにつれて、心理学者たちは、人々が機械とどのように相互作用するかを理解し、導く上で重要な役割を果たします。「この心理的プロセスを理解することで、私たちは介入し、人々が悪意のあるAIの助言に従うのを防ぐことができます。」とShank氏は述べています。「AIはますます人間らしくなってきているため、心理学者たちはAIの研究にますます適任になってきていますが、役割を果たすためには、より多くの研究を行い、技術開発に追いつかなければなりません。」
現時点では、これらの懸念は大部分が依然として理論的なものです ― しかし、技術は急速に発展しています。より多くの意識と研究がなければ、人々は慰めを与えてくれる機械に頼り続ける一方で、その慰めには隠されたリスクが伴っていることを発見するかもしれません。