En el cambiante mundo de la IA, un pequeño pero significativo movimiento pasó desapercibido hasta hace poco: Anthropic, una empresa de IA de renombre, parece estar despidiéndose de su pasado. Esta empresa estrella ha eliminado silenciosamente de su sitio web varios compromisos voluntarios publicados en 2023 junto con el gobierno de Biden. Estos compromisos, que se consideraban una prueba del compromiso de Anthropic con la seguridad de la IA y la IA "confiable", ahora han desaparecido sin dejar rastro.

El primero en detectar este movimiento fue el organismo de supervisión de la inteligencia artificial "Proyecto Midas". Según esta organización, los compromisos para compartir información sobre la gestión de riesgos de IA con el gobierno y la industria, y para la investigación sobre sesgos y discriminación en la IA, que se mostraban públicamente en el centro de transparencia de Anthropic, "desaparecieron" la semana pasada. Solo quedan algunos compromisos sobre la reducción de imágenes de abuso sexual generadas por IA.

Claude3 Claude

Las acciones de Anthropic han sido extraordinariamente discretas, incluso "silenciosas". No han anunciado públicamente este cambio y han optado por guardar silencio ante las solicitudes de comentarios de los medios, lo que ha generado especulaciones sobre sus verdaderas intenciones.

En julio de 2023, Anthropic, junto con gigantes tecnológicos como OpenAI, Google, Microsoft, Meta e Inflection, anunció públicamente su adhesión al llamamiento del gobierno de Biden para cumplir voluntariamente una serie de compromisos de seguridad de la IA. Esta lista de compromisos, que incluía pruebas de seguridad internas y externas rigurosas antes del lanzamiento de sistemas de IA, grandes inversiones en ciberseguridad para proteger datos de IA sensibles y el desarrollo de marcas de agua para contenido generado por IA, demostraba una gran buena voluntad.

Es importante aclarar que estos compromisos no tenían fuerza legal vinculante, y Anthropic ya había adoptado muchas de estas prácticas. Sin embargo, en la estrategia del gobierno de Biden, este acuerdo de compromiso voluntario tenía un significado político más profundo: se consideraba una señal importante de las prioridades de la política de inteligencia artificial antes de una orden ejecutiva más completa sobre IA que se esperaba para meses después.

Sin embargo, las cosas han cambiado, y el clima político ha mutado. El gobierno de Trump ha declarado públicamente que su enfoque en la gobernanza de la IA será muy diferente al del gobierno anterior.

En enero, el gobierno de Trump derogó la orden ejecutiva sobre IA liderada por el gobierno de Biden. Esta orden tenía como objetivo guiar al Instituto Nacional de Estándares y Tecnología para que estableciera directrices para la industria, ayudando a las empresas a identificar y corregir los defectos de los modelos, incluidos los sesgos. Los críticos cercanos al bando de Trump argumentaron que los engorrosos requisitos de informes de la orden de Biden obligaban a las empresas a revelar secretos comerciales, algo inaceptable para ellos.

Inmediatamente después, Trump firmó una nueva orden ejecutiva que instruye a las agencias federales a promover el desarrollo de tecnologías de IA "libres de sesgos ideológicos", con el objetivo de fomentar la "prosperidad humana, la competitividad económica y la seguridad nacional". Curiosamente, la nueva orden de Trump no menciona la "lucha contra la discriminación de la IA", un elemento clave en la iniciativa de Biden.

Como señaló el "Proyecto Midas" en las redes sociales, los compromisos de seguridad de la IA de la era del gobierno de Biden nunca insinuaron tener un límite de tiempo, ni estaban relacionados con la afiliación política del presidente en funciones. Incluso después de las elecciones de noviembre pasado, varias empresas que firmaron los compromisos declararon públicamente que mantenían su compromiso.

Sin embargo, en los pocos meses transcurridos desde la llegada al poder del gobierno de Trump, Anthropic no es la única empresa tecnológica que ha ajustado sus políticas públicas. OpenAI anunció recientemente que adoptará la "libertad de conocimiento" y que mantendrá una actitud abierta, independientemente de lo delicado o controvertido que sea el tema, asegurando al mismo tiempo que sus sistemas de IA no censuren puntos de vista específicos.

OpenAI también eliminó silenciosamente de su sitio web una página dedicada a sus compromisos en materia de diversidad, equidad e inclusión (DEI). Estos planes de DEI habían sido duramente criticados por el gobierno de Trump, lo que llevó a muchas empresas a suspenderlos o modificarlos sustancialmente.

Varios asesores de inteligencia artificial de Silicon Valley de Trump, incluidos Marc Andreessen, David Sacks y Elon Musk, han criticado públicamente a gigantes tecnológicos como Google y OpenAI por la supuesta "censura de la IA" al limitar artificialmente las respuestas de sus chatbots de IA. Aunque varios laboratorios, incluido OpenAI, niegan que sus ajustes de política hayan sido directamente influenciados por presiones políticas.

Un contexto importante es que OpenAI y Anthropic, dos empresas líderes en el campo de la IA, ya compiten activamente por contratos gubernamentales.

En medio de la creciente controversia, Anthropic finalmente rompió su silencio y publicó una declaración para intentar calmar las aguas:

“Seguimos comprometidos con los compromisos voluntarios de IA establecidos por el gobierno de Biden. El progreso y las acciones específicas de estos compromisos se reflejan continuamente en el contenido de [nuestro] centro de transparencia. Para evitar más confusiones, añadiremos una sección específica que cite directamente nuestro progreso.”

Sin embargo, ¿esta declaración tardía responderá completamente a las dudas? ¿El "retiro de los compromisos" de Anthropic es simplemente un malentendido o un cambio estratégico premeditado? En el cambiante panorama de la política y los negocios, cada movimiento de los gigantes de la IA merece nuestra atención.