先日、データインテリジェンス企業Databricksは、画期的な大規模言語モデルの微調整方法「TAO(Test-time Adaptive Optimization)」を発表しました。この技術は、オープンソースモデルの発展に新たな希望をもたらします。無ラベルデータと強化学習を活用することで、TAOは企業のコスト削減に優れ、様々なベンチマークテストで目覚ましい成果を上げています。
テクノロジーメディアNeoWinの報道によると、TAOで微調整されたLlama 3.370Bモデルは、金融文書の質問応答やSQL生成などのタスクにおいて、従来のラベル付き微調整方法を上回り、OpenAIの最先端のクローズドソースモデルに匹敵する性能を示しました。この成果は、オープンソースモデルが商用AI製品との競争において大きな飛躍を遂げたことを示しています。
TAO方法の中核は、独自の「テスト時計算」という考え方です。これにより、タスクの多様性を自動的に探索し、強化学習を組み合わせてモデルを最適化することで、従来の微調整に必要な人的なラベル付けコストを削減できます。複数の企業ベンチマークテストで、TAOで微調整されたLlamaモデルは優れた成績を収めました。
- FinanceBenchベンチマークテストでは、7200件のSEC文書の質問応答において85.1の高得点を獲得し、従来のラベル付き微調整(81.1)やOpenAIのo3-mini(82.2)を上回りました。
- BIRD-SQLテストでは、TAOで微調整されたLlamaモデルは56.1点を獲得し、GPT-4oの58.1に迫り、従来のラベル付き微調整(54.9)を大きく上回りました。
- DB Enterprise Arenaでは、TAOモデルは47.2点を獲得しました。GPT-4oの53.8にはやや劣りますが、依然として強力な競争力を示しています。
TAO技術は、オープンソースモデルの継続的な進化への扉を開きました。ユーザーの利用が増えるにつれて、モデルはフィードバックデータを通じて自己最適化されます。現在、DatabricksはLlamaモデルでクローズドベータテストを開始しており、企業は申請によりこの革新的な体験に参加できます。
この新技術の発表は、オープンソースAI分野における革新的なブレークスルーであるだけでなく、将来の大規模言語モデルの発展にとって重要な指針となります。より多くの企業が参加することで、TAO微調整方法はオープンソースモデルの性能向上をさらに促進し、オープンソースAIが商用アプリケーションでより大きな可能性を発揮することを期待できます。