Récemment, l'équipe de recherche de Li Guoqi et Xu Bo de l'Institut d'automatisation de l'Académie chinoise des sciences, en collaboration avec des institutions de recherche telles que l'Université Tsinghua et l'Université de Pékin, a proposé une nouvelle méthode de construction de modèles de neurones cérébraux basée sur la « complexité intrinsèque ». L'article de recherche correspondant a été publié dans la revue Nature Computing Science.

Cette étude a d'abord démontré l'équivalence des propriétés dynamiques des modèles LIF et HH dans les réseaux de neurones à impulsions, prouvant qu'un neurone HH peut être équivalent à un neurone LIF grâce à quatre structures de connexion spécifiques et des paramètres variant dans le temps. Sur la base de cette découverte, l'équipe de recherche a amélioré la complexité intrinsèque des unités de calcul grâce à la conception de micro-architectures, permettant au modèle de réseau HH de simuler les caractéristiques d'un modèle de réseau LIF de plus grande envergure.

Cerveau, grand modèle, IA

Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney

De plus, l'équipe a simplifié ce modèle en un modèle s-LIF2HH et a vérifié son efficacité pour capturer des comportements dynamiques complexes par le biais d'expériences de simulation. Les résultats expérimentaux montrent que les modèles de réseaux HH et s-LIF2HH présentent des performances similaires en termes de capacité de représentation et de robustesse, tandis que le modèle de réseau HH est plus efficace en termes de consommation de ressources de calcul.

Cette recherche fournit de nouvelles méthodes et un soutien théorique pour intégrer l'intelligence artificielle aux caractéristiques dynamiques complexes des neurosciences, tout en offrant des solutions pour l'optimisation et l'amélioration des performances des modèles d'IA. Actuellement, l'équipe de recherche a commencé à approfondir ses recherches sur les réseaux HH de plus grande envergure et les neurones plus complexes. Elle prévoit d'améliorer encore l'efficacité de calcul et les capacités de traitement des tâches des grands modèles, accélérant ainsi leur application concrète.

Adresse de l'article : https://www.nature.com/articles/s43588-024-00674-9