Meta社は先日、Llamaシリーズの人工知能モデルを米国政府機関および関連請負業者に開放し、国家安全保障への応用を支援すると発表しました。

この措置は、「オープン」な人工知能が外国の敵対勢力を助長する可能性があるという懸念を払拭することを目的としています。Metaはブログ記事で、「Llamaを米国政府機関、特に国防と国家安全保障に特化したプロジェクトや、それらの活動を支援する民間部門のパートナーに提供することを嬉しく思います」と述べています。

Llama2、Meta、人工知能、大規模言語モデル、AI

このプロジェクトを推進するため、Metaはアクセンチュア、アマゾンウェブサービス、アンディール、ボースアレン、Databricks、デロイト、IBM、レイドス、ロッキード・マーティン、マイクロソフト、オラクル、Palantir、Scale AI、Snowflakeなど、多くの有名企業と提携しました。これらの企業は、Llamaモデルを様々な国家安全保障任務に応用する支援を行います。

例えば、オラクルはLlamaを使用して航空機の整備文書を処理しており、Scale AIは特定の国家安全保障任務のためにLlamaを微調整しています。一方、ロッキード・マーティンは、国防顧客にLlamaを提供し、コンピュータコードの生成などを支援する計画です。

通常、Metaのポリシーでは、開発者がLlamaを軍事、戦争、またはスパイ活動関連のプロジェクトに適用することを禁止しています。しかし、今回は例外として、米国政府関連機関および請負業者によるLlamaの使用を許可し、英国、カナダ、オーストラリア、ニュージーランドなどの同様の機関にも適用されます。

注目すべきは、中国人民解放軍関連の研究者が旧バージョンのLlamaモデル(Llama2)を使用して、軍事目的のチャットボットを開発し、情報収集や処理を行い、戦闘意思決定に情報を提供しようとしたという報道がありました。Metaはこれに対し、このモデルの使用は「無許可」であり、同社の許容利用ポリシーに違反していると回答しました。しかし、この事件は、オープンな人工知能の長所と短所に関する幅広い議論をさらに引き起こしました。

人工知能が軍事情報、監視、偵察への応用が進むにつれ、関連する安全上の懸念が浮上しています。AI Now Instituteによる研究では、既存の人工知能システムは個人データに依存しており、そのデータは敵対勢力によって抽出され、武器化される可能性があると示唆されています。同時に、人工知能システムにはバイアスや幻覚などの問題があり、現在有効な解決策はありません。研究者らは、「商業」モデルとは分離された専用の人工知能システムの開発を推奨しています。

MetaはオープンAIが国防研究を加速させ、米国の経済と安全保障の利益を促進すると主張していますが、米国軍はこの技術の採用に依然として慎重であり、陸軍だけが生成型人工知能を配備しています。

要点:

🌐 Meta社はLlamaモデルを米国政府および国防請負業者に開放し、国家安全保障への応用を支援。

🤝 多くの有名企業がMetaと協力し、Llamaモデルの国防分野への応用を推進。

⚖️ 軍事利用におけるオープンな人工知能の安全上の懸念が議論され、研究者は専用モデルの開発を呼びかけ。