最近、OpenAIは公式ウェブサイトで、今後一部の人工知能モデルへのアクセスには組織による身元確認が必要となる新ポリシーを発表しました。「検証済み組織」と呼ばれるこの検証プロセスは、開発者がOpenAIプラットフォーム上で最先端のモデルと機能を利用できるようにし、AI技術の安全性と制御性を高めることを目的としています。

QQ20250414-102434.png

このポリシーによると、組織はOpenAI APIをサポートする国または地域の政府が発行した身分証明書を提示して身元確認を行う必要があります。ただし、90日以内には1つの身分証明書で1つの組織しか検証できず、すべての組織が検証の対象となるわけではありません。OpenAIは声明の中で、「OpenAIでは、人工知能の広範なアクセス可能性と安全な使用を確保するために真剣に取り組んでいます。」と述べています。同時に、一部の開発者がAPIを悪用し、利用規約に違反する可能性があることも認識しています。そのため、身元確認プロセスを導入することで、安全でないAIの使用を減らし、広範な開発者コミュニティに最先端技術を提供し続けることを目指しています。

OpenAI製品の複雑さと強力さが増すにつれて、この新しい検証プロセスは製品の安全性を強化するために必要な措置と見なされています。同社は、特定の北朝鮮の団体を対象とした最近の調査を含め、モデルの悪用を検出し、削減する方法を詳細に説明した複数のレポートを発表しています。さらに、このポリシーは知的財産の盗難を防ぐためでもある可能性があります。ブルームバーグの報道によると、OpenAIは中国の人工知能研究所DeepSeekに関連する組織を調査しており、この組織は2024年末までにAPIを通じて大量のデータを窃取してモデルのトレーニングに使用した可能性があり、これは明らかにOpenAIの関連条項に違反しています。なお、OpenAIは昨年夏、中国本土および香港、マカオのユーザーによるサービスへのアクセスを停止しています。

これらの対策の一連の導入は、OpenAIがAI技術の健全な発展を促進すると同時に、技術の使用に関する規制を強化し、開発者が合法的にこれらの最先端技術を利用できるようにすることを意味しています。