Meta hat kürzlich den Meta LLM-Compiler (Meta Large Language Model Compiler) vorgestellt, eine Nachricht, die die gesamte Programmierbranche in Aufruhr versetzt hat. Berichten zufolge erzielte der LLM-Compiler FTD (Feinabstimmungsversion) eine Verbesserung der Codegrößenoptimierung um 5,24 %, was die Optimierungsoption -Oz übertrifft, während GPT-4 Turbo nur bei 0,03 % liegt.

Meta LLM ist eine Modellreihe, die auf Meta Code Llama basiert und die Versionen 7B und 13B umfasst. In Bezug auf die Disassemblierungsfähigkeit erreichte der LLM-Compiler FTD einen Round-Trip-BLEU-Score von 0,96 und übertraf damit den GPT-4 Turbo mit 0,43 deutlich.