La empresa Anthropic acordó pagar 1.500 millones de dólares para poner fin a una demanda iniciada en 2024 por tres autores —Andrea Bartz, Charles Graeber y Kirk Wallace Johnson— que denunciaron que la compañía había utilizado copias pirateadas de sus obras para entrenar su modelo Claude. Según el juez, Anthropic descargó más de siete millones de libros de “bibliotecas fantasma”, incorporándolos a su base de datos sin pagar licencias.
Con el tiempo, la demanda se convirtió en una class action que reunió a medio millón de autores y editores, cada uno de los cuales recibirá unos 3.000 dólares por obra incluida. La alternativa para la compañía era enfrentar un juicio con daños potenciales de hasta 150.000 dólares por trabajo, cifra imposible de asumir.
Razón del acuerdo
Para expertos legales, Anthropic prefirió pagar antes que arriesgarse a un fallo que estableciera un precedente legal desfavorable. “Un fallo en contra podría hundir el negocio de la IA”, explicó Rodrigo Cetina, profesor de Derecho en la Universitat Pompeu Fabra.
La propia empresa reconoció en un comunicado: “Seguimos comprometidos con desarrollar sistemas de IA seguros que ayuden a las personas y organizaciones. Con este acuerdo resolvemos las reclamaciones pendientes”.
Piratería o uso legítimo
El caso generó un debate central: ¿usar obras de terceros para entrenar modelos de IA es piratería o se considera “uso legítimo” (fair use)?
Un juez había aceptado que entrenar con copias legales de libros escaneados puede considerarse de uso legítimo, pero el problema surgió con los archivos pirateados, núcleo de la demanda. Los autores sostienen que el robo a gran escala de trabajos con derechos de autor forma parte del modelo de negocio de Anthropic.
Efectos en la industria de la IA
El acuerdo no cierra el debate, pues no aborda los resultados generados por los modelos, es decir, si un chatbot produce textos que replican a un autor. Sin embargo, la cifra de 3.000 dólares por obra podría servir como referente para futuras licencias, similar a la transición que vivió la industria musical en la era Napster.
Barry Scannell, abogado irlandés, resumió: “Esto transforma el debate de lo abstracto a lo concreto: de discutir sobre fair use a hablar de dinero. Pagar por adelantado es más barato que litigar después”.
Riesgos y expectativas
Algunos expertos advierten que los costos de licencias podrían encarecer la IA generativa para empresas y usuarios. “Obtener contenido de forma legal costará más dinero, y ese costo se trasladará al cliente”, señaló Kevin Hall, director de TI en una cooperativa de crédito estadounidense.
Otros creen que Anthropic sale fortalecida: al limpiar su historial y acordar un pago, podrá continuar entrenando modelos con material adquirido legalmente.
El acuerdo aún debe ser aprobado formalmente por el juez, quien expresó su preocupación por vacíos en el proceso: cómo se notificará a los afectados, cómo se repartirán pagos en obras con múltiples reclamantes y cómo se resolverán futuras disputas.
Impacto global y futuro del sector
El caso de Anthropic puede servir como guía para evitar juicios largos y costosos y avanzar hacia un modelo de licencias claras que reconozca a los creadores. Actualmente, hay más de 40 demandas abiertas contra empresas de IA, incluyendo OpenAI, Stability AI y Midjourney.
Anthropic, fundada en 2021 por exdirectivos de OpenAI, cerró recientemente una ronda de financiación de 13.000 millones de dólares, valuando la empresa en 183.000 millones. Paradójicamente, mientras paga por piratería pasada, comunica a sus usuarios que seguirá leyendo sus mensajes para entrenar sus modelos.


