最近の研究で、AI駆動のチャットボットが認定倫理ハッカー試験に合格できることが判明しましたが、研究者らは、サイバーセキュリティの保護にそれらだけに頼るべきではないと警告しています。この研究は、ミズーリ大学のPrasad Calyam氏とインドのアムリタ大学の共同研究者らによって執筆され、OpenAIのChatGPTとGoogleのBard(現Gemini)という2つの主要な生成AIツールをテストしました。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
認定倫理ハッカーとは、悪意のあるハッカーと同じ技術とツールを使ってセキュリティ上の脆弱性を発見し、修復するサイバーセキュリティ専門家です。これらの試験は、様々な攻撃の種類に関する個人の知識と、システムを保護し、セキュリティ上の脆弱性に対処する方法を評価します。
研究では、Calyam氏と彼のチームは、検証済みの認定倫理ハッカー試験の標準的な問題を使用してこれらのボットをテストしました。例えば、彼らはAIツールに中間者攻撃(第三者が2つのシステム間の通信を傍受する攻撃)の説明をさせました。研究によると、ChatGPTとBardはどちらもこの攻撃を説明し、予防策を提案することができました。
研究者らは、Bardの方がChatGPTよりも正確性が高い一方で、ChatGPTの方が内容の包括性、明確性、簡潔性において優れていることを発見しました。
Calyam教授は、これらのツールは個人や小規模企業にとって迅速な助けとなる可能性がありますが、問題解決の経験を持つ人間のサイバーセキュリティ専門家を代替することはできないと指摘しています。後者は、より堅牢なサイバーセキュリティ対策を策定することができます。
AIモデルは倫理ハッカーの分野で可能性を示していますが、研究者らは、それらの能力を最大限に活用し、正確性を確保して、全体的なサイバーセキュリティレベルを向上させるためには、さらなる努力が必要だと考えています。
要点:
🤖 AIチャットボットが試験に合格:ミズーリ大学とアムリタ大学の研究によると、AIチャットボットは倫理ハッカー試験に合格できます。
🔒 倫理ハッカーの役割:倫理ハッカーは、悪意のあるハッカーと同じ技術とツールを使用してセキュリティ上の脆弱性を検出し、修復します。
📝 AIツールの限界:AIチャットボットはテストで良好な成績を収めましたが、サイバーセキュリティ分野における人間の専門家を完全に代替することはできません。