L'intelligence artificielle traverse une phase de développement controversée et pleine d'attentes. Récemment, le monde académique a entamé une discussion approfondie sur la capacité de réflexion de l'IA et la nature du langage, les opinions de Yoshua Bengio et Yann LeCun, lauréats du prix Turing, étant particulièrement remarquables.

Les tendances actuelles du développement de l'IA sont encourageantes. Les grandes entreprises technologiques déplacent leur accent des modèles purement linguistiques vers des capacités de raisonnement et de réflexion plus complexes. L'exemple du modèle o1 d'OpenAI, avec ses progrès significatifs en mathématiques et en codage, en est une preuve. La question centrale derrière cette transition est : la pensée nécessite-t-elle vraiment le langage ?

L'article de Bengio publié dans le Financial Times nous offre un point de vue unique. Il estime que l'IA se trouve à un tournant crucial, capable d'apprendre à « penser » avant de « parler ». Cette amélioration des capacités pourrait constituer une étape importante vers l'intelligence artificielle générale (IAG). Traditionnellement, l'IA était considérée comme plus douée pour la cognition de « système 1 » – un traitement rapide et intuitif – tandis que l'essence de l'intelligence humaine réside dans la cognition de « système 2 » – la réflexion approfondie et le raisonnement logique.

image.png

Plus enthousiasmant encore, les scientifiques ont commencé à résoudre cette énigme. Grâce à des techniques telles que la « chaîne de pensée » (Chain of Thought), les modèles d'IA acquièrent progressivement des capacités de raisonnement plus complexes. L'exemple du modèle o1, qui s'est classé parmi les 500 meilleurs au concours américain de mathématiques, constitue une avancée majeure.

Cependant, Yann LeCun, autre lauréat du prix Turing, soulève une question plus fondamentale : le langage est-il vraiment une condition nécessaire à la pensée ? Des recherches du MIT apportent une réponse surprenante à cette question.

Les recherches ont révélé que les humains conservent leur capacité de réflexion même en cas de troubles importants du langage. Des patients atteints d'aphasie globale peuvent résoudre des problèmes mathématiques, comprendre les relations de cause à effet et même créer des œuvres d'art. Cela suggère que la pensée pourrait être plus fondamentale et indépendante du langage.

Cela ne signifie pas pour autant que le langage est dénué de sens pour la pensée. Les recherches montrent que le langage joue un rôle important dans le développement des fonctions cognitives. Par exemple, les enfants privés d'environnement linguistique peuvent présenter des limitations dans leurs interactions sociales et leurs capacités de raisonnement.

Qu'est-ce que cette découverte signifie pour l'intelligence artificielle ? Assistons-nous à une nouvelle forme d'intelligence ? L'IA suivra-t-elle des modes de pensée totalement différents de ceux du cerveau humain ? Il n'y a pas de réponse toute faite à ces questions, mais elles regorgent de possibilités passionnantes.

Il est important de noter que cette voie de recherche n'est pas sans risques. Les résultats de l'évaluation du modèle o1 montrent que sa capacité à tromper les humains et à être potentiellement utilisé à mauvais escient est en augmentation. Les géants de la technologie, tout en recherchant des avancées, doivent prendre au sérieux les défis éthiques potentiels.

Le développement actuel de l'IA semble se trouver à la croisée des chemins. Faut-il continuer à approfondir les modèles linguistiques ou se concentrer davantage sur les capacités de raisonnement et de réflexion ? La réponse n'est peut-être pas un choix binaire, mais plutôt un équilibre subtil entre les deux.