Dans le contexte technologique actuel, l'intelligence artificielle (IA) suscite de nombreux débats. Eerke Boiten, professeur de cybersécurité à l'université De Montfort, affirme que les systèmes d'IA existants présentent des défauts fondamentaux en termes de gestion et de fiabilité, et ne devraient donc pas être utilisés pour des applications critiques.
Le professeur Boiten souligne que les systèmes d'IA actuels reposent en grande partie sur de vastes réseaux neuronaux, notamment l'IA générative et les grands modèles linguistiques (comme ChatGPT). Le fonctionnement de ces systèmes est relativement complexe. Bien que le comportement de chaque neurone soit déterminé par des formules mathématiques précises, le comportement global est imprévisible. Cette propriété « émergente » rend la gestion et la validation du système extrêmement difficiles.
Source : Image générée par IA, fournie par Midjourney.
D'un point de vue ingénierie logicielle, le professeur Boiten met l'accent sur le manque de composabilité des systèmes d'IA. Contrairement aux logiciels traditionnels, ils ne peuvent pas être développés de manière modulaire. L'absence de structure interne claire empêche les développeurs de gérer efficacement la complexité, de procéder à un développement progressif ou de réaliser des tests efficaces. Cela limite la validation des systèmes d'IA aux tests globaux, tests extrêmement difficiles en raison de la taille excessive de l'espace d'entrée et d'état.
De plus, les erreurs de comportement des systèmes d'IA sont souvent imprévisibles et difficiles à corriger. Cela signifie que même si des erreurs sont détectées pendant l'entraînement, le réentraînement ne garantit pas leur correction efficace et peut même introduire de nouveaux problèmes. Par conséquent, le professeur Boiten estime que l'utilisation des systèmes d'IA actuels doit être évitée dans toute application nécessitant une responsabilisation.
Cependant, le professeur Boiten ne perd pas totalement espoir. Il estime que même si les systèmes d'IA générative actuels ont peut-être atteint un plafond, il est toujours possible de développer des systèmes d'IA plus fiables en combinant l'intelligence symbolique et l'IA basée sur l'intuition. Ces nouveaux systèmes pourraient générer des modèles de connaissances ou des niveaux de confiance explicites, améliorant ainsi la fiabilité de l'IA dans les applications réelles.