En el contexto tecnológico actual, la inteligencia artificial (IA) ha generado un amplio debate. Eerke Boiten, profesor de ciberseguridad de la Universidad De Montfort, afirma que los sistemas de IA existentes presentan fallas fundamentales en cuanto a gestión y fiabilidad, por lo que no deberían utilizarse en aplicaciones cruciales.
El profesor Boiten señala que la mayoría de los sistemas de IA actuales se basan en grandes redes neuronales, especialmente la IA generativa y los grandes modelos lingüísticos (como ChatGPT). El funcionamiento de estos sistemas es relativamente complejo; aunque el comportamiento de cada neurona está determinado por fórmulas matemáticas precisas, el comportamiento general es impredecible. Esta característica "emergente" dificulta la gestión y verificación eficaces del sistema.
Nota de la fuente: Imagen generada por IA, proveedor de servicios de licencias Midjourney
Desde la perspectiva de la ingeniería de software, el profesor Boiten destaca la falta de capacidad de composición de los sistemas de IA, que no se pueden desarrollar de forma modular como el software tradicional. Al carecer de una estructura interna clara, los desarrolladores no pueden dividir y gestionar eficazmente la complejidad, ni tampoco desarrollar o probar de forma gradual. Esto limita la verificación de los sistemas de IA a pruebas generales, que son extremadamente difíciles debido a la gran cantidad de entradas y espacio de estados.
Además, el comportamiento erróneo de los sistemas de IA suele ser impredecible y difícil de corregir. Esto significa que, incluso si se detectan errores durante el entrenamiento, el reentrenamiento no garantiza que estos errores se corrijan eficazmente, e incluso puede introducir nuevos problemas. Por lo tanto, el profesor Boiten considera que se debe evitar el uso de los sistemas de IA actuales en cualquier aplicación que requiera responsabilidad.
Sin embargo, el profesor Boiten no pierde toda esperanza. Considera que, aunque los sistemas de IA generativa actuales pueden haber llegado a un punto muerto, mediante la combinación de inteligencia simbólica e IA basada en la intuición, en el futuro podría ser posible desarrollar sistemas de IA más fiables. Estos nuevos sistemas podrían generar modelos de conocimiento o niveles de confianza definidos, mejorando la fiabilidad de la IA en aplicaciones reales.