最近、Googleは公式ウェブサイトから、兵器や監視に使用される人工知能(AI)を開発しないという約束を密かに削除しました。この変更はブルームバーグが最初に報道し、大きな注目と議論を呼んでいます。Googleは最近、公開されているAI原則のページを更新し、「追求しない用途」というセクションを削除しましたが、このセクションは先週まで閲覧可能でした。

メディアからの問い合わせに対し、Googleは「責任あるAI」に関する新しいブログ記事をテッククランチに提供しました。この記事の中で、Googleは次のように述べています。「企業、政府、組織は協力して、人類を保護し、世界の発展を促進し、国家安全保障を支援するAIを創造すべきだと信じています。」

探査ロボット 人工知能2025

画像出典:AI生成画像、画像ライセンスプロバイダーMidjourney

更新後のGoogleのAI原則では、同社が「予期せぬ結果や有害な結果を軽減し、不公平な偏見を回避する」ことに尽力し、その発展が「国際法と人権の普遍的に認められた原則」と一致することを保証すると強調しています。これは、GoogleのAI適用に関する立場が変化しつつあることを示唆しています。

近年、Googleは米国とイスラエル軍との間でクラウドサービス契約を締結しており、社内従業員から抗議を受けています。Googleは繰り返し、自社のAI技術は人間を傷つけるために使用されないことを強調していますが、米国国防総省のAI責任者は最近テッククランチのインタビューで、一部企業のAIモデルが実際には米軍の作戦決定プロセスを加速させていると述べています。この発言は、GoogleのAIの将来の用途について懸念を抱かせます。

Googleのこの変更は、軍事および監視分野におけるテクノロジー企業の役割について、人々の深い省察を促しています。世界中で人工知能技術の倫理的問題に対する懸念が高まっていることを背景に、Googleのこの新たな動きは特に注目に値します。一般市民と従業員は、同社がどのようにこのデリケートな分野で責任あるイメージを維持し、商業利益と倫理的責任のバランスを取るかを注視しています。

AI技術の進歩と応用が進むにつれて、Googleの立場の変化は業界全体に大きな影響を与える可能性があり、将来のテクノロジー倫理と責任感について再考を促すでしょう。