技術の世界では、開発者と管理層の間で「いたちごっこ」が繰り広げられています。その主役は、会社で明示的に禁止されているにもかかわらず、開発者たちがこっそりと使用しているAIコーディングツールです。

クラウドセキュリティ企業Checkmarxの最新のグローバル調査によると、15%の企業がAIコーディングツールの使用を明確に禁止しているにもかかわらず、ほぼすべての開発チーム(99%)がそれらを使用しています。この現象は、生成AIの使用管理における課題を浮き彫りにしています。

生成AIツールに対して何らかのガバナンスメカニズムを構築している企業はわずか29%です。70%のケースでは統一的な戦略がなく、購入決定は各部門が臨機応変に行っています。この状況により、管理層はAIコーディングツールの使用管理に苦労しているようです。

image.png

AIコーディングツールの普及に伴い、セキュリティ問題もますます顕著になっています。回答者の80%が、開発者がAIを使用することで潜在的な脅威が生じることを懸念しており、特に60%がAIが生み出す「幻覚」問題を懸念しています。

懸念がある一方で、AIの可能性に期待する声も少なくありません。47%の回答者が、AIによるコードの無監視変更を容認することに前向きです。AIのソフトウェア環境におけるセキュリティ対策を信頼しないという回答者はわずか6%でした。

Tzruya氏は、「これらのグローバルCISOの回答は、開発者がAIを使用して安全なコードを確実に作成できない場合でも、アプリケーション開発でAIを使用しているという現実を示しています。これは、セキュリティチームが大量の新しい、脆弱性の高いコードに対処する必要があることを意味します。」と述べています。

マイクロソフトのワークトレンドインデックスの最近のレポートでも同様の発見が示されており、多くの従業員が、AIツールが提供されていない場合でも、独自のAIツールを使用しています。通常、彼らはそのような使用について話し合わず、これが生成AIのビジネスプロセスへの体系的な統合を妨げています。

明示的な禁止にもかかわらず、99%の開発チームがAIツールを使用してコードを生成しています。生成AIの使用に関するガバナンスメカニズムを構築している企業はわずか29%です。70%のケースでは、各部門によるAIツールの使用に関する決定は臨機応変に行われています。同時に、セキュリティ問題は増加しています。47%の回答者が、AIによるコードの無監視変更を容認することに前向きです。セキュリティチームは、大量の潜在的に脆弱なAI生成コードに対処するという課題に直面しています。

開発者と管理層の間の「いたちごっこ」は続いており、AIコーディングツールの未来がどうなるのか、注目が集まっています。