OpenAI se enfrenta a un problema espinoso: ¿cómo abordar el plagio estudiantil con ChatGPT? Aunque la compañía ha desarrollado un método fiable para detectar artículos o informes escritos con ChatGPT, esta tecnología no se ha publicado debido a la preocupación generalizada sobre el uso de la IA por parte de los estudiantes para hacer trampa.
OpenAI ha desarrollado con éxito una tecnología fiable para detectar contenido generado por ChatGPT. Esta tecnología, que inserta una "marca de agua" en el texto generado por la IA, alcanza una precisión de detección del 99,9%. Sin embargo, resulta desconcertante que esta tecnología, que podría resolver un problema urgente, no se haya publicado. Según fuentes internas, este proyecto se ha debatido internamente en OpenAI durante casi dos años y estaba listo para su lanzamiento hace un año.
Los factores que impiden la publicación de esta tecnología son complejos. En primer lugar, OpenAI se enfrenta a una disyuntiva: ¿mantener su compromiso con la transparencia o la lealtad de sus usuarios? Las encuestas internas muestran que casi un tercio de los usuarios fieles de ChatGPT se oponen a la tecnología antiplagio. Esta cifra sin duda ejerce una gran presión en la toma de decisiones de la empresa.
En segundo lugar, OpenAI teme que la tecnología pueda tener un impacto negativo desproporcionado en algunos grupos, especialmente en los hablantes no nativos de inglés. Esta preocupación refleja un problema central en la ética de la IA: ¿cómo garantizar la equidad e inclusión de la tecnología de IA?
Sin embargo, al mismo tiempo, la necesidad de esta tecnología en el ámbito educativo es cada vez más urgente. Según una encuesta del Centro para la Democracia y la Tecnología, el 59% de los profesores de secundaria y bachillerato están convencidos de que los estudiantes ya están utilizando la IA para hacer sus tareas, un 17% más que el curso escolar anterior. Los educadores necesitan urgentemente herramientas para abordar este desafío y mantener la integridad académica.
La indecisión de OpenAI ha provocado controversias internas. Los empleados que apoyan la publicación de la herramienta argumentan que las preocupaciones de la empresa son insignificantes en comparación con los enormes beneficios sociales que podría aportar esta tecnología. Este punto de vista pone de manifiesto la tensión entre el desarrollo tecnológico y la responsabilidad social.
La propia tecnología también presenta algunos problemas potenciales. Aunque la precisión de detección es muy alta, algunos empleados temen que la marca de agua pueda eliminarse con simples métodos técnicos, como mediante software de traducción o edición manual. Esta preocupación refleja los desafíos que enfrenta la tecnología de IA en sus aplicaciones prácticas.
Además, el control del alcance de esta tecnología también es un problema complejo. Un alcance demasiado limitado reduciría su utilidad, mientras que un alcance demasiado amplio podría provocar que la tecnología sea descifrada. Este equilibrio requiere un diseño y una gestión cuidadosos.
Cabe destacar que otros gigantes tecnológicos también están trabajando en este campo. Google ha desarrollado SynthID, una herramienta de marca de agua para detectar textos generados por su IA Gemini, aunque todavía se encuentra en fase de prueba. Esto refleja la importancia que el sector de la IA otorga a la verificación de la autenticidad del contenido.
OpenAI también ha priorizado el desarrollo de tecnologías de marca de agua de audio y vídeo, especialmente en un año electoral en Estados Unidos. Esta decisión pone de manifiesto que las empresas de IA deben considerar las implicaciones sociales más amplias en el desarrollo de la tecnología.