Recientemente, Anthropic, una startup de inteligencia artificial con sede en San Francisco, ha sido demandada por un grupo de escritores por el uso no autorizado de una gran cantidad de libros con derechos de autor en el entrenamiento de su popular chatbot, Claude. Este caso marca la primera demanda de escritores contra Anthropic, aunque en el último año se han presentado demandas similares contra su competidor, OpenAI, de forma incesante.

Anthropic, Claude

Sin embargo, la demanda, presentada el lunes en un tribunal federal de San Francisco, acusa a Anthropic de "burlarse de sus nobles objetivos" al utilizar libros con derechos de autor para construir su producto de IA. La demanda afirma: "No es exagerado decir que el modelo de Anthropic intenta beneficiarse de la expresión y creatividad humanas detrás de cada obra".

Los demandantes son tres escritores, Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, quienes buscan representar a un grupo más amplio de autores de ficción y no ficción afectados. Si bien esta es la primera demanda de escritores contra Anthropic, la compañía también enfrenta una demanda de importantes editoriales musicales que acusan a Claude de reutilizar letras de canciones protegidas por derechos de autor.

Este caso está relacionado con una serie de demandas contra los desarrolladores de grandes modelos de lenguaje de IA. OpenAI y Microsoft están involucrados en batallas legales con escritores conocidos como John Grisham, Jodi Picoult y George R.R. Martin, autor de "Canción de hielo y fuego". Además, hay demandas de medios de comunicación como The New York Times, Chicago Tribune y Mother Jones.

El punto en común de todos estos casos es que las empresas tecnológicas utilizan una gran cantidad de obras humanas sin autorización para entrenar chatbots de IA, generando así texto similar al humano. Las demandas provienen no solo de escritores, sino también de artistas visuales, compañías musicales y otros creadores que afirman que las ganancias de la IA generativa se basan en la apropiación de obras originales.

Aunque Anthropic y otras empresas tecnológicas argumentan que el entrenamiento de modelos de IA cae bajo el concepto de "uso legítimo" en la ley estadounidense, las demandas alegan que el conjunto de datos "The Pile", utilizado, contiene una gran cantidad de libros con derechos de autor. Además, la demanda refuta la idea de que la forma en que un sistema de IA aprende es similar a la de un humano, destacando que los humanos aprenden comprando libros legalmente o tomándolos prestados de una biblioteca, lo que al menos proporciona una compensación económica a los autores y creadores.

Puntos clave:

📚 Escritores demandan a Anthropic por usar libros con derechos de autor para entrenar a su chatbot de IA, Claude.

⚖️ Este es el primer caso de escritores contra Anthropic; se han presentado demandas similares contra OpenAI anteriormente.

💡 Anthropic y otras compañías argumentan que el entrenamiento de IA cae bajo el concepto de "uso legítimo", pero enfrentan una fuerte controversia sobre derechos de autor.