Meta hat einen brandneuen Meta LLM-Compiler (Meta Large Language Model Compiler) vorgestellt! Dieser Compiler basiert auf der Meta Code Llama-Modellreihe und ist in zwei Versionen mit 7B und 13B Parametern verfügbar. Der Meta LLM verfügt über leistungsstarke Codeoptimierungs- und Compilerfunktionen. Er kann, sozusagen „denkfähig“, einen Compiler simulieren, den optimalen Pfad für die Codeoptimierung vorhersagen und sogar Code disassemblieren.

Berichten zufolge kann dieser Compiler auch für spezifische Optimierungs- und Compileraufgaben feinabgestimmt werden – er lernt und verbessert sich stetig. Die feinabgestimmte Version des LLM-Compilers (FTD) zeigt herausragende Leistungen bei der Codegrößenoptimierung und erzielt eine Verbesserung von über 5,24 % gegenüber der Optimierungsoption -Oz, was deutlich über den 0,03 % von GPT-4 Turbo liegt.

image.png

Darüber hinaus zeigt der LLM-Compiler FTD beeindruckende Fähigkeiten beim Disassemblieren mit einem Round-Trip-BLEU-Score von 0,96, der den Wert von 0,43 von GPT-4 Turbo deutlich übertrifft.

Diese Nachricht hat im Internet große Aufmerksamkeit erregt. Interessierte Leser können die Links zum Modell und zur Forschungsarbeit besuchen, um mehr zu erfahren.

Forschungsarbeit: https://ai.meta.com/research/publications/meta-large-language-model-compiler-foundation-models-of-compiler-optimization/?utm_source=twitter&utm_medium=organic_social&utm_content=link&utm_campaign=fair