Previo a la sesión anual de la Asamblea Popular Nacional y la Conferencia Consultiva Política del Pueblo Chino de este año, Zhou Hongyi, miembro del Comité Nacional de la Conferencia Consultiva Política del Pueblo Chino y fundador del grupo 360, expresó su opinión sobre el modelo de lenguaje grande DeepSeek y los problemas de seguridad de la IA, enfatizando la importancia de comprender correctamente la seguridad de la IA, sin exagerarla ni ignorarla.
Zhou Hongyi señaló que actualmente existe una tendencia a exagerar los problemas de seguridad de la IA. Criticó a las cinco principales empresas de IA de Estados Unidos, representadas por OpenAI, por tender a exagerar la inseguridad de la IA para defender sus estrategias de monopolio y código cerrado, impulsando así una mayor regulación gubernamental y obstaculizando a los competidores. Considera que, en este contexto, discutir la seguridad de la IA tiene un "aire de mala fe" y enfatiza que "la falta de desarrollo es la mayor inseguridad". En su opinión, aprovechar la oportunidad de la revolución industrial de la IA, mejorar la productividad y lograr la accesibilidad tecnológica es la prioridad.
Nota de la imagen: Imagen generada por IA, proveída por Midjourney.
En cuanto al problema de las "alucinaciones" de la IA, Zhou Hongyi presentó una perspectiva única. Considera que las "alucinaciones" no son simplemente un riesgo de seguridad, sino una manifestación de la inteligencia y la creatividad del modelo de lenguaje grande. Un modelo de lenguaje grande sin "alucinaciones" carece de imaginación, mientras que las "alucinaciones" son una característica que muestra una inteligencia similar a la humana.
Tomando DeepSeek como ejemplo, sus "alucinaciones" son notables, y los usuarios pueden experimentar una capacidad creativa similar a la humana al utilizarlo. Aboga por que la seguridad de la IA y el desarrollo empresarial puedan avanzar simultáneamente, y que problemas específicos como las "alucinaciones" se descompongan en desafíos técnicos solucionables, en lugar de ser clasificados genéricamente como riesgos de seguridad. Hace un llamado a una visión racional de las características de la IA, a encontrar soluciones específicas y a impulsar el progreso tecnológico.