En el campo interdisciplinario de la neurociencia y la inteligencia artificial, el renombrado neurocientífico Anthony Zador mantuvo una conversación profunda con Paul Middlebrooks, presentador del podcast Brain Inspired. Como uno de los pioneros en este campo, Zador expuso en detalle sus perspectivas únicas sobre el futuro del NeuroAI.
Desde su rechazo inicial al término "NeuroAI" hasta su actual optimismo hacia este campo, la transformación de Zador proviene de una profunda reflexión sobre la naturaleza del problema. Señaló que en las décadas de 1980 y 1990, la neurociencia computacional y las redes neuronales artificiales estaban estrechamente relacionadas. Sin embargo, a medida que avanzaba la investigación, se dio cuenta de que centrarse únicamente en las características dinámicas de los circuitos neuronales era insuficiente; lo más importante era comprender cómo estos circuitos ayudan a los organismos a resolver problemas reales.
Nota de la imagen: Imagen generada por IA, proveída por Midjourney.
Al hablar del desarrollo actual de la IA, Zador planteó un punto de reflexión. Cree que la arquitectura Transformer, tan popular en la actualidad, podría ser un contraejemplo del éxito del NeuroAI, ya que apenas se parece a la forma en que funciona el cerebro. Explicó que el éxito de ChatGPT se debe principalmente a las características cerradas del sistema lingüístico, no a una simulación real del proceso cognitivo humano.
En cuanto al futuro de la IA, Zador destaca el desafío clave de la coordinación de múltiples objetivos. Señala que los sistemas de IA existentes son excelentes para optimizar un solo objetivo, pero a menudo funcionan mal cuando se trata de múltiples objetivos. En cambio, los seres vivos han desarrollado mecanismos sofisticados a lo largo de la evolución para equilibrar múltiples objetivos como la alimentación, la huida y la reproducción. La forma en que se logra este equilibrio podría ser una inspiración importante para el futuro desarrollo de la IA.
En cuanto al desarrollo y el aprendizaje, Zador propone una idea novedosa. Cree que el genoma humano puede verse como una "representación comprimida" de los circuitos neuronales, que genera estructuras complejas mediante reglas recursivas. Esta perspectiva está respaldada por sus investigaciones más recientes; su equipo logró comprimir grandes redes neuronales entre 100 y 1000 veces, manteniendo al mismo tiempo su rendimiento.
Sobre el desarrollo de la robótica, Zador enfatiza la dificultad de la transferencia de la simulación a la realidad (sim-to-real). Señala que los sistemas biológicos muestran una capacidad de adaptación asombrosa, como la capacidad de los perros, con sus grandes diferencias de tamaño, de compartir instrucciones de desarrollo neuronal similares. Detrás de esta adaptabilidad hay un proceso de desarrollo cuidadosamente diseñado que logra la adquisición de capacidades complejas resolviendo gradualmente subproblemas.
Mirando hacia el futuro, Zador cree que el aprendizaje por cursos podría ser una dirección importante para superar los obstáculos actuales en el desarrollo de la IA. Al descomponer tareas complejas en subtareas más pequeñas y aprenderlas secuencialmente en un orden lógico, los sistemas de IA podrían ser más eficientes que aprendiendo directamente el objetivo final. Este método no solo podría acelerar el aprendizaje, sino también mejorar la capacidad de adaptación del sistema ante los cambios del mundo real.
Esta conversación no solo muestra el prometedor futuro de la profunda integración entre la neurociencia y la inteligencia artificial, sino que también revela la importancia de la inspiración de la inteligencia biológica para el desarrollo de la inteligencia artificial. A medida que avance la investigación, esta exploración interdisciplinaria seguramente proporcionará más perspectivas para el futuro desarrollo de la IA.