Meta a récemment lancé le compilateur Meta LLM (Meta Large Language Model Compiler), une nouvelle qui a secoué l'industrie de la programmation. Il semblerait que le FTD (version optimisée) du compilateur LLM ait amélioré la taille du code de 5,24 %, surpassant ainsi l'option d'optimisation -Oz, tandis que GPT-4 Turbo n'atteint que 0,03 %.
La série de modèles Meta LLM est basée sur Meta Code Llama et comprend deux versions : 7B et 13B. En termes de capacité de désassemblage, le FTD du compilateur LLM a obtenu un score BLEU aller-retour de 0,96, dépassant largement les 0,43 de GPT-4 Turbo.