Metaが、全く新しいMeta LLMコンパイラ(Meta Large Language Model Compiler)を発表しました!このコンパイラはMeta Code Llamaをベースとしたモデルシリーズで、7Bと13Bの2つのバージョンがあります。Meta LLMは強力なコード最適化とコンパイラ機能を備えており、まるで思考しているかのように、コンパイラをシミュレートし、コード最適化の最適な経路を予測し、さらにはコードを逆アセンブルすることもできます。

このコンパイラは、特定の最適化やコンパイラタスクに合わせて微調整することもでき、まるで学習して成長しているようです。LLMコンパイラFTD(ファインチューニング版)は、コードサイズ最適化において優れた性能を発揮し、最適化オプション-Ozよりも5.24%も向上しており、GPT-4Turboの0.03%をはるかに凌駕しています。

image.png

さらに、逆アセンブル能力においても、LLMコンパイラFTDは0.96という高い往復BLEUスコアを達成し、GPT-4Turboの0.43を大きく上回っています。

このニュースはインターネット上で大きな注目を集めており、興味のある方はモデルと論文のリンクから詳細をご確認ください。

論文:https://ai.meta.com/research/publications/meta-large-language-model-compiler-foundation-models-of-compiler-optimization/?utm_source=twitter&utm_medium=organic_social&utm_content=link&utm_campaign=fair