Recientemente, el proyecto de IA Gemini de Google ha generado preocupaciones sobre la precisión de la información debido a una nueva normativa interna. Según informes, se ha pedido a los trabajadores externos encargados de evaluar el contenido generado por la IA que califiquen áreas en las que no poseen conocimientos especializados, especialmente en temas delicados como la salud.

Modelo de lenguaje grande Gemini de Google

Estos trabajadores externos, pertenecientes a la empresa global de servicios tecnológicos GlobalLogic, deben evaluar las respuestas generadas por la IA, considerando principalmente la "autenticidad". Anteriormente, podían omitir preguntas sobre las que no tenían conocimientos especializados; por ejemplo, podían optar por no evaluar preguntas sobre cardiología. Esto se hacía para garantizar la precisión de las calificaciones, asegurando que solo personal con experiencia relevante realizara las evaluaciones.

Sin embargo, la semana pasada GlobalLogic anunció un nuevo requisito de Google: los trabajadores externos ya no pueden omitir preguntas de áreas especializadas, debiendo calificar las partes que comprenden e indicando su falta de conocimientos en el área. Este cambio ha generado preocupación entre los trabajadores externos, quienes temen que esto pueda afectar la precisión de Gemini en temas complejos.

Por ejemplo, algunos trabajadores externos mencionaron en comunicaciones internas que la opción de omitir preguntas antes servía para mejorar la precisión de las calificaciones, mientras que la nueva normativa los obliga a evaluar temas sobre los que no tienen experiencia, como enfermedades raras. Los correos internos muestran que la normativa anterior era: "Si no tienes los conocimientos profesionales necesarios para esta tarea, omítela". La nueva normativa dice: "No se deben omitir las indicaciones que requieren conocimientos profesionales". Este cambio de política ha generado inquietud entre los trabajadores externos.

Bajo la nueva normativa, los trabajadores externos solo pueden omitir una tarea de evaluación en dos casos: falta total de información, como la ausencia de una indicación o respuesta completa; o si el contenido es potencialmente dañino y requiere un consentimiento especial para su evaluación. Aunque estas nuevas normas pretenden mejorar el rendimiento de Gemini, podrían afectar su comprensión y respuesta a temas complejos en la práctica.

Google no ha respondido a este asunto, y la preocupación de los trabajadores externos está creciendo.

Puntos clave:

🔍 Se exige a los trabajadores externos que evalúen respuestas generadas por IA sobre las que no tienen conocimientos especializados, especialmente en áreas sensibles como la salud.

🚫 La nueva normativa elimina la opción de "omitir", obligando a los trabajadores externos a calificar incluso sin conocimientos especializados.

📉 Esta política podría afectar la precisión de Gemini en temas complejos, generando inquietud y preocupación entre los trabajadores externos.