Na área de tecnologia de 2023, a equipe Meta propôs o mecanismo de atenção S2A, que resolve eficazmente a correlação falsa em respostas de grandes modelos de linguagem, aumentando a precisão para 80,3%. Este mecanismo recebeu o reconhecimento de LeCun e é considerado útil para melhorar a capacidade de raciocínio de grandes modelos de linguagem.