Mécanisme d'attention S2A

Dans le domaine technologique de 2023, l'équipe Meta a proposé le mécanisme d'attention S2A. Ce mécanisme résout efficacement le problème de la corrélation fallacieuse lors de la réponse aux questions par les grands modèles, améliorant ainsi la précision à 80,3 %. Ce mécanisme a reçu l'approbation de LeCun et est considéré comme contribuant à améliorer les capacités de raisonnement des grands modèles de langage.