AIによるコード生成がますます普及する中、サイバーセキュリティ分野の最高情報セキュリティ責任者(CISO)は、若手開発者がAIツールに過度に依存することで基本的なスキルが低下し、将来見過ごせない盲点が生じることを懸念しています。多くの開発者は、ChatGPTのようなAIコーディングアシスタントを生産性向上のためのツールとみなしていますが、この便利さには長期的なリスクも伴います。

観察によると、新卒の開発者はシステムの深い理解に課題を抱えています。機能的なコード断片を生成できますが、その背後にあるロジックを深く説明したり、安全性を確保したりすることは苦手です。マイクロソフトの調査でも、AIに依存する従業員は、仕事で疑問を呈したり、分析や評価を行ったりする頻度が低く、批判的思考能力に影響を与える可能性が指摘されています。AIツールは短期的に効率を向上させる可能性がありますが、長期的に見ると、この依存は開発者の創造性と技術適応能力を弱める可能性があります。

コード インターネット (2)

一部のCISOは、特にAIツールに大きく依存する若手開発者に対して懸念を表明しています。彼らは、コードが動作するかどうかを重視する傾向があり、その動作原理には関心が薄いのです。AI生成コードへの依存は、これらのコードが組織固有のセキュリティ要件を満たさない可能性があるため、セキュリティ上の盲点につながる可能性があります。さらに、AI生成コードの使用は、未検証のコードや潜在的なリスクのあるコードを意図せず導入する可能性があるため、コンプライアンスや知的財産権に関する法的問題を引き起こす可能性があります。

AI技術の進歩に伴い、組織は開発者がAIを使用しながら批判的思考力と深い技術的基礎を維持できるように、適切な対策を講じる必要があります。そのため、一部の専門家は、採用時にはコーディングスキルだけでなく、候補者のセキュリティに関する推論能力とアーキテクチャ思考にも重点を置くべきだと提案しています。同時に、組織は従業員のトレーニングを強化し、AIの長所と短所を理解させ、セキュリティに敏感な環境では常に人的介入を維持する必要があります。

AIはソフトウェア開発に利便性をもたらしますが、過度の依存は深刻な悪影響を及ぼす可能性があります。組織は、AIを補助ツールとして位置づけ、人間の深い専門知識に取って代わる「救済策」ではないという文化を構築する必要があります。