Recientemente, Microsoft presentó una solicitud de patente para reducir o eliminar la información falsa generada por la inteligencia artificial. La patente, titulada "Interacción con modelos de lenguaje utilizando conocimiento externo y retroalimentación", se presentó el año pasado a la Oficina de Patentes y Marcas de Estados Unidos (USPTO) y se hizo pública el 31 de octubre.
El núcleo de esta propuesta es proporcionar a los modelos de IA un "Sistema de Mejora de Respuestas" (RAS, por sus siglas en inglés) que les permita extraer automáticamente más información según las consultas del usuario y verificar la "validez" de sus respuestas.
Específicamente, el Sistema de Mejora de Respuestas puede identificar si hay información de "fuentes externas" que pueda responder mejor a las preguntas del usuario. Si la respuesta de la IA no incluye esta información, el sistema la considera insuficiente. Además, el RAS puede alertar al usuario sobre posibles deficiencias en su respuesta, permitiendo la retroalimentación del usuario. La ventaja de esta solución es que no requiere ajustes detallados de los desarrolladores o empresas en los modelos existentes.
Actualmente, el sitio web de la USPTO aún no muestra el número de patente de la solicitud, lo que significa que la patente aún está en revisión. Nos hemos puesto en contacto con Microsoft para obtener más información, incluyendo si esta patente está relacionada con la herramienta de reducción de alucinaciones de IA anunciada previamente por Microsoft: la herramienta de seguridad de contenido de Azure AI. Esta herramienta proporciona verificación impulsada por IA para los chatbots empresariales de IA, realizando verificaciones de hechos en segundo plano para determinar si las respuestas de la IA son "infundadas" o "fundamentadas", proporcionando solo respuestas respaldadas por datos reales antes de enviarlas al usuario.
El problema de las alucinaciones de IA es uno de los mayores desafíos que enfrenta la IA generativa, afectando gravemente la credibilidad de los chatbots de IA. En este sentido, los sistemas de IA de Google y Twitter han cometido errores notables, como sugerir a los usuarios que pongan pegamento en una pizza o que coman piedras, o incluso difundir información falsa sobre elecciones. El CEO de Apple, Tim Cook, también admitió que la tecnología inteligente de Apple no está exenta de problemas de alucinaciones. Recientemente, se descubrió que la herramienta de transcripción de audio "Whisper" de OpenAI también presenta alucinaciones frecuentes, lo que ha generado preocupación sobre su uso en hospitales estadounidenses.
A pesar de la prominencia del problema de las alucinaciones de IA, la demanda de centros de datos de IA por parte de los gigantes tecnológicos sigue siendo fuerte. Empresas como Google, Microsoft y Meta están considerando la energía nuclear como una posible solución para satisfacer las altas necesidades energéticas de la IA.
Puntos clave:
🔍 Microsoft solicitó una nueva patente para reducir la información falsa generada por la IA.
🤖 El núcleo de la patente es introducir un Sistema de Mejora de Respuestas en los modelos de IA para extraer automáticamente más información.
⚡ A pesar de la gravedad del problema de las alucinaciones de IA, la demanda de centros de datos de IA por parte de las empresas tecnológicas sigue siendo fuerte.