Dans le domaine technologique de 2023, l'équipe Meta a proposé le mécanisme d'attention S2A. Ce mécanisme résout efficacement le problème de la corrélation fallacieuse lors de la réponse aux questions par les grands modèles, améliorant ainsi la précision à 80,3 %. Ce mécanisme a reçu l'approbation de LeCun et est considéré comme contribuant à améliorer les capacités de raisonnement des grands modèles de langage.
Meta propose le mécanisme d'attention S2A, améliorant la précision des grands modèles à 80,3%

站长之家
Cet article provient d'AIbase Daily
Bienvenue dans la section [AI Quotidien] ! Voici votre guide pour explorer le monde de l'intelligence artificielle chaque jour. Chaque jour, nous vous présentons les points forts du domaine de l'IA, en mettant l'accent sur les développeurs, en vous aidant à comprendre les tendances technologiques et à découvrir des applications de produits IA innovantes.