グーグルは先日、最新開発のAIモデル「Big Sleep」がSQLiteデータベースのメモリ安全性の脆弱性を発見したと発表しました。この脆弱性は、悪用可能なスタックバッファアンダーフローの問題であり、正式リリース前に修正されました。Big Sleepは、グーグルのProject ZeroとDeepMindの共同成果であり、以前のProject Naptimeのアップグレード版と見なされています。
SQLiteはオープンソースのデータベースエンジンであるため、この脆弱性により、攻撃者は悪意のあるデータベースやSQLインジェクションを通じて、SQLiteのクラッシュや任意コードの実行を引き起こす可能性があります。具体的には、魔法の数値-1が配列のインデックスとして誤って使用されたことが問題の原因です。コードにはassert()による問題検出がありますが、リリース版ではこのデバッグレベルのチェックは削除されます。
グーグルは、この脆弱性の悪用は容易ではないと指摘していますが、より重要なのは、AIが初めて実世界のソフトウェアで既知の脆弱性を発見したことだと述べています。グーグルによると、従来のファジング(fuzzing)手法ではこの問題は検出できませんでしたが、Big Sleepはそれを達成しました。プロジェクトソースコードのコミット履歴を分析することで、Big Sleepは10月初旬にこの脆弱性を特定し、同日中に修正されました。
グーグルは11月1日の発表で、この研究成果は防御面で大きな可能性を秘めていると述べています。ファジングは既に顕著な成果を上げていますが、グーグルのチームは、ファジングでは見つけにくい脆弱性の発見を支援する新たな方法が必要だと考えており、AIの能力に大きな期待を寄せています。
以前、シアトルのProtect AI社は、AnthropicのClaude AIモデルを使用してPythonコードベースのゼロデイ脆弱性を発見できると主張するVulnhuntrというオープンソースツールを発表しました。しかし、グーグルのチームは、これら2つのツールの用途は異なっており、Big Sleepはメモリセキュリティ関連の脆弱性を発見したと強調しています。
現在、Big Sleepはまだ研究段階にあり、以前は既知の脆弱性を持つ小規模なプログラムで主にテストされていました。今回の実験は、実環境での最初のテストとなります。テストのために、研究チームはSQLiteコードベースの最新のコミットをいくつか収集し、分析後にモデルのプロンプトを調整して、最終的にこの脆弱性を発見しました。
この成果を達成したものの、グーグルのチームは、これらの結果は依然として高度に実験的な段階にあることを警告しており、現在のターゲット指向のファジングは、脆弱性の発見において同様に有効である可能性があると述べています。
要点:
🔍 ** グーグルのAIモデルBig SleepがSQLiteのメモリ安全性の脆弱性を初めて発見。**
🛠️ ** この脆弱性は正式リリース前に修正され、AIによる脆弱性発見における新たな進歩を示す。**
📊 ** 成果を上げたものの、グーグルは現在の結果は実験的な段階であり、ファジングも依然として有効であると強調。**