グーグルは先日、生成AIの利用規約を更新し、医療など「高リスク」分野において、生成AIツールを「自動化された意思決定」に使用できることを明確にしました。ただし、人間の監督が不可欠であることを条件としています。
グーグルが火曜日に発表した最新版の「生成AI禁止事項ポリシー」によると、顧客は、個人の権利に「重大な悪影響」を及ぼす可能性のある「自動化された意思決定」にグーグルの生成AIを使用できます。何らかの形で人間の監督があれば、顧客はグーグルの生成AIを使用して、雇用、住宅、保険、社会福祉、その他の「高リスク」分野の事項を決定できます。
AI分野において、自動化された意思決定とは、AIシステムが事実データと推論データに基づいて行う意思決定を指します。例えば、システムは自動的に融資申請を承認するか、求職者をふるいにかけるかなどを決定する可能性があります。

以前、グーグルの規約草案では、高リスクの自動化された意思決定において同社の生成AIの使用を全面的に禁止することを示唆していました。しかし、グーグルはTechCrunchに対し、人間の監督があれば、顧客は常に生成AIを高リスクの用途であっても自動化された意思決定に使用できると述べています。
「すべて高リスク分野において、人間の監督という要件は常に当社のポリシーに存在しています」と、グーグルの広報担当者はメールで回答しています。「[規約内の]いくつかの項目を再分類し、いくつかの例をより明確に列挙することで、顧客の理解を深めるようにしています。」
グーグルの主要なAI競合他社であるOpenAIとAnthropicは、高リスクの自動化された意思決定におけるAIの使用について、より厳格な規定を設けています。例えば、OpenAIは、信用、雇用、住宅、教育、社会評価、保険に関連する自動化された意思決定へのサービス提供を禁止しています。Anthropicは、法律、保険、医療など高リスク分野において、AIを自動化された意思決定に使用することを許可していますが、「資格のある専門家」による監督を条件とし、顧客はAIをその目的で使用していることを開示する必要があります。
個人に影響を与える自動化された意思決定AIは、規制当局から注目を集めており、この技術が偏った結果をもたらす可能性について懸念されています。例えば、融資や住宅ローンの申請を承認するために使用されるAIは、歴史的な差別を継続する可能性があることが研究で示されています。
非営利団体ヒューマン・ライツ・ウォッチは、「社会評価」システムの禁止を訴えています。同団体は、このシステムが人々の社会保障へのアクセスを妨げ、プライバシーを侵害し、偏った方法で個人像を描く可能性があると主張しています。
EUの「AI法案」では、(個人の信用や雇用の決定を行うシステムなど)高リスクAIシステムが最も厳格な規制の対象となっています。これらのシステムのプロバイダーは、データベースへの登録、品質とリスク管理の実施、人間の監督者の雇用、関連当局への事件報告など、その他の要件を満たす必要があります。
米国では、コロラド州が最近、「高リスク」AIシステムに関する情報をAI開発者が開示し、システムの機能と限界をまとめた声明を発表することを義務付ける法律を可決しました。一方、ニューヨーク市では、雇用主が自動化ツールを使用して候補者の雇用決定をふるいにかけることを禁止しており、ただし、そのツールが前年内にバイアス監査を受けている場合を除きます。
今回のグーグルによるAI利用規約の明確化は、同社のAI適用規制に対する姿勢を示しています。高リスク分野における自動化された意思決定を許可する一方で、人間の監督の重要性を強調していることは、AI技術の応用の可能性を示すと同時に、潜在的なリスクへの警戒心を反映しています。