Recientemente, la empresa de IA Anthropic eliminó silenciosamente de su sitio web los compromisos de seguridad de inteligencia artificial (IA) relacionados con la administración Biden. Este compromiso, inicialmente descubierto por un organismo de supervisión de IA llamado "Proyecto Midas", fue eliminado la semana pasada del centro de transparencia de Anthropic, que enumera los "compromisos voluntarios" de la empresa sobre el desarrollo responsable de la IA. Si bien estos compromisos no eran legalmente vinculantes, prometían compartir información e investigaciones sobre los riesgos de la IA (incluidos los sesgos) con el gobierno.
En julio de 2023, Anthropic, junto con otras grandes empresas de tecnología, incluidas OpenAI, Google y Meta, se unió al acuerdo voluntario de autorregulación del gobierno de Biden para apoyar las iniciativas de seguridad de la IA. Estas iniciativas se confirmaron posteriormente en la orden ejecutiva de Biden sobre IA. Las empresas participantes se comprometieron a realizar pruebas de seguridad de los modelos antes de su lanzamiento, a marcar con agua el contenido generado por IA y a desarrollar una infraestructura de privacidad de datos.
Sin embargo, con la llegada de la administración Trump, la actitud de Anthropic hacia estos compromisos parece haber cambiado. Trump, en su primer día en el cargo, revocó la orden ejecutiva de Biden, despidió a varios expertos en IA del gobierno y recortó fondos de investigación. Estos cambios podrían haber llevado a muchas grandes empresas de IA a reconsiderar su relación con el gobierno, con algunas aprovechando la oportunidad para ampliar sus contratos gubernamentales para participar en la configuración de las aún inciertas políticas de IA.
Actualmente, Anthropic no ha hecho ninguna declaración pública sobre la eliminación de este compromiso y afirma que su postura sobre la IA responsable es independiente de, o anterior a, los acuerdos de la era Biden. En relación con esto, la administración Trump podría disolver el instituto de seguridad de IA establecido durante la administración Biden, lo que genera incertidumbre sobre las medidas relacionadas.
En general, la administración Trump está debilitando el marco regulatorio de IA establecido durante la administración Biden, y las empresas de IA parecen tener más libertad para gestionar sus sistemas sin la presión de la regulación externa. Actualmente, los controles de seguridad relacionados con los sesgos y la discriminación en la IA parecen no estar presentes en las políticas relevantes de la administración Trump.
Puntos clave:
🌐1. Anthropic eliminó los compromisos de seguridad de IA relacionados con la administración Biden, lo que refleja un cambio de política.
🤖2. La administración Trump revocó la orden ejecutiva de Biden sobre IA y realizó recortes en la regulación de la IA.
💼3. Las grandes empresas de IA están reconsiderando su relación con el gobierno bajo la administración Trump, lo que podría llevar a una relajación de la autorregulación.