Con el rápido desarrollo de la tecnología de inteligencia artificial (IA), los principales desarrolladores de IA como OpenAI y Anthropic están colaborando con el ejército estadounidense para mejorar la eficiencia del Pentágono, al tiempo que garantizan que su tecnología de IA no se utilice en armas letales.
La Dra. Radha Plumb, principal oficial digital e IA del Pentágono, en una entrevista con TechCrunch, afirmó que la IA actualmente no se utiliza en armas, pero ofrece ventajas significativas al Departamento de Defensa en la identificación, seguimiento y evaluación de amenazas.
Nota de la fuente: Imagen generada por IA, proveedor de servicios de licencias de imágenes Midjourney
La Dra. Plumb mencionó que el Pentágono está acelerando la ejecución de la "cadena de muerte", un proceso que implica identificar, rastrear y eliminar amenazas, involucrando complejos sensores, plataformas y sistemas de armas. La IA generativa muestra su potencial en la planificación y la estrategia de la cadena de muerte. Señaló que la IA puede ayudar a los comandantes a responder rápida y eficazmente ante las amenazas.
En los últimos años, la relación entre el Pentágono y los desarrolladores de IA se ha fortalecido. En 2024, empresas como OpenAI, Anthropic y Meta flexibilizaron sus políticas de uso, permitiendo a las agencias de inteligencia y defensa estadounidenses utilizar sus sistemas de IA, pero aún prohibiendo el uso de estas tecnologías de IA para dañar a humanos. Este cambio ha acelerado la colaboración entre las empresas de IA y los contratistas de defensa.
Por ejemplo, Meta colaboró en noviembre con empresas como Lockheed Martin y Booz Allen para aplicar su modelo de IA Llama en el ámbito de la defensa. Anthropic ha establecido una colaboración similar con Palantir. Aunque los detalles técnicos específicos de estas colaboraciones no son claros, la Dra. Plumb indicó que la aplicación de la IA en la fase de planificación podría entrar en conflicto con las políticas de uso de varios desarrolladores líderes.
Existe un intenso debate sobre si las armas de IA deberían tener la capacidad de decidir sobre la vida o la muerte. El CEO de Anduril, Palmer Luckey, mencionó que el ejército estadounidense tiene una larga historia de adquisición de sistemas de armas autónomos. Sin embargo, la Dra. Plumb lo negó, enfatizando que en cualquier caso, debe haber una intervención humana en la decisión de usar la fuerza.
Señaló que la idea de que los sistemas automatizados tomen decisiones de vida o muerte de forma independiente es demasiado simplista; la realidad es mucho más compleja. Los sistemas de IA del Pentágono son una colaboración entre humanos y máquinas, con la participación de altos mandos en el proceso de toma de decisiones.
Puntos clave:
🌐 La IA está proporcionando ventajas significativas al Pentágono en la identificación y evaluación de amenazas, impulsando la eficiencia en la toma de decisiones militares.
🤝 La colaboración entre los desarrolladores de IA y el Pentágono está creciendo, pero se mantiene el compromiso de no utilizar la tecnología de IA para dañar a los humanos.
🔍 Continúa el debate sobre si las armas de IA deberían tener la capacidad de decidir sobre la vida o la muerte; el Pentágono enfatiza la participación humana continua.