Meta hat einen brandneuen Meta LLM-Compiler (Meta Large Language Model Compiler) vorgestellt! Dieser Compiler basiert auf der Meta Code Llama-Modellreihe und ist in zwei Versionen mit 7B und 13B Parametern verfügbar. Der Meta LLM verfügt über leistungsstarke Codeoptimierungs- und Compilerfunktionen. Er kann, sozusagen „denkfähig“, einen Compiler simulieren, den optimalen Pfad für die Codeoptimierung vorhersagen und sogar Code disassemblieren.
Berichten zufolge kann dieser Compiler auch für spezifische Optimierungs- und Compileraufgaben feinabgestimmt werden – er lernt und verbessert sich stetig. Die feinabgestimmte Version des LLM-Compilers (FTD) zeigt herausragende Leistungen bei der Codegrößenoptimierung und erzielt eine Verbesserung von über 5,24 % gegenüber der Optimierungsoption -Oz, was deutlich über den 0,03 % von GPT-4 Turbo liegt.
Darüber hinaus zeigt der LLM-Compiler FTD beeindruckende Fähigkeiten beim Disassemblieren mit einem Round-Trip-BLEU-Score von 0,96, der den Wert von 0,43 von GPT-4 Turbo deutlich übertrifft.
Diese Nachricht hat im Internet große Aufmerksamkeit erregt. Interessierte Leser können die Links zum Modell und zur Forschungsarbeit besuchen, um mehr zu erfahren.