Google ha actualizado recientemente sus términos de servicio para su IA generativa, permitiendo explícitamente a los clientes utilizar sus herramientas de IA generativa para la "toma de decisiones automatizada" en áreas de "alto riesgo", como la atención médica y el empleo, siempre que exista supervisión humana. Este cambio se refleja en la política de uso prohibido de IA generativa recientemente publicada por la empresa.

IA médica, médico, inteligencia artificial

Nota de la fuente: Imagen generada por IA, proveedor de servicios de licencias de imágenes Midjourney

Según la política actualizada, los clientes pueden, bajo supervisión, utilizar la IA generativa de Google para tomar decisiones automatizadas que puedan tener un "impacto desfavorable significativo" en los derechos individuales. Estas áreas de alto riesgo incluyen empleo, vivienda, seguros, bienestar social, etc. Las cláusulas anteriores parecían prohibir totalmente las decisiones automatizadas de alto riesgo, pero Google afirma que siempre permitió el uso de la IA generativa para este tipo de decisiones bajo supervisión humana.

Un portavoz de Google respondió a los medios de comunicación: "El requisito de supervisión humana siempre ha existido en nuestra política, cubriendo todas las áreas de alto riesgo. Simplemente hemos reclasificado algunas cláusulas y hemos enumerado ejemplos más concretos para facilitar la comprensión de los usuarios."

En comparación con el enfoque de Google, sus principales competidores, como OpenAI y Anthropic, tienen regulaciones más estrictas sobre las decisiones automatizadas de alto riesgo. OpenAI prohíbe el uso de sus servicios para tomar decisiones automatizadas relacionadas con crédito, empleo, vivienda, educación, calificación social y seguros. Anthropic permite que su IA tome decisiones automatizadas en áreas de alto riesgo como derecho, seguros y atención médica, pero solo bajo la supervisión de "profesionales cualificados", y exige a los clientes que informen explícitamente sobre el uso de la IA para este tipo de decisiones.

Los organismos reguladores muestran preocupación por los sistemas de IA de toma de decisiones automatizadas, ya que esta tecnología puede conducir a sesgos en los resultados. Por ejemplo, los estudios muestran que la IA puede perpetuar la discriminación histórica en la aprobación de préstamos e hipotecas.

Organizaciones sin fines de lucro como Human Rights Watch abogan especialmente por la prohibición de los sistemas de "calificación social", argumentando que amenazan el acceso de las personas a la seguridad social y pueden violar la privacidad, creando perfiles sesgados.

En la Unión Europea, según la Ley de IA, los sistemas de IA de alto riesgo, incluidos los que participan en decisiones sobre crédito personal y empleo, enfrentan la regulación más estricta. Los proveedores de estos sistemas deben registrarse en una base de datos, gestionar la calidad y el riesgo, emplear supervisores humanos e informar a las autoridades competentes sobre los incidentes, etc.

En Estados Unidos, Colorado recientemente aprobó una ley que exige a los desarrolladores de IA que revelen información sobre los sistemas de IA de "alto riesgo" y publiquen un resumen de las capacidades y limitaciones del sistema. Simultáneamente, la ciudad de Nueva York prohíbe a los empleadores utilizar herramientas automatizadas para seleccionar candidatos, a menos que la herramienta haya sido auditada en busca de sesgos en el último año.

Puntos clave:

🌟 Google permite el uso de IA generativa en áreas de alto riesgo, pero requiere supervisión humana.

🛡️ Otras empresas de IA como OpenAI y Anthropic tienen restricciones más estrictas sobre las decisiones de alto riesgo.

⚖️ Los organismos reguladores de varios países están revisando los sistemas de IA de toma de decisiones automatizadas para prevenir sesgos en los resultados.