El derecho autor IA está roto. No de la manera lenta y digna en que los marcos legales típicamente envejecen hacia la obsolescencia, sino de la manera espectacular y contradictoria que ocurre cuando un sistema de siglos colisiona con tecnología que nunca fue diseñado para anticipar. Más de 70 demandas por violación de derechos de autor han sido presentadas contra empresas de IA desde principios de 2026[s], más del doble de la cantidad de fines de 2024. El mayor acuerdo de derechos de autor en la historia de Estados Unidos, 1.5 mil millones de dólares, fue pagado por una sola empresa de IA por descargar libros pirateados[s]. Y tres jueces federales, dictaminando sobre preguntas relacionadas con el entrenamiento de IA y derechos de autor en el lapso de unos pocos meses, llegaron a conclusiones que apuntaban en direcciones completamente diferentes[s].
El patrimonio de propiedad intelectualPropiedad intelectual en la industria cinematográfica, refiriéndose a historias, personajes o marcas existentes utilizadas como base para películas en lugar de contenido original., ese entendimiento legal compartido de lo que poseen los creadores, lo que el público puede usar, y dónde comienza y termina el uso justo, está muerto. Lo que lo reemplace determinará si la próxima generación de artistas, periodistas e investigadores será compensada por la materia primaMaterias primas utilizadas como insumo para un proceso de fabricación industrial, como compuestos de litio para la producción de baterías. que impulsa el sector tecnológico más rentable de la tierra, o si su trabajo simplemente se convertirá en combustible gratuito para el modelo de mil millones de dólares de alguien más.
El Derecho Autor IA en la Sala de Juicios: Tres Fallos, Tres Realidades
La prueba más clara de que el derecho autor IA no tiene doctrina coherente llegó en junio de 2025, cuando dos tribunales federales en el Norte de California emitieron opiniones de juicio sumarioResolución judicial que resuelve un caso sin juicio, otorgada cuando no hay controversia real sobre los hechos clave y la ley favorece claramente a una parte. dentro de 48 horas uno del otro, y un tercero en Delaware ya había establecido una línea base contradictoria meses antes.
En Bartz v. Anthropic, el Juez William Alsup dictaminó que entrenar un gran modelo de lenguajeSistema de aprendizaje automático entrenado en grandes cantidades de texto que predice y genera lenguaje humano. Estos sistemas como GPT y Claude muestran capacidades sorprendentes pero también cometen errores con confianza aparente. con libros protegidos por derechos de autor era «transformativo, espectacularmente así»[s]. Comparó el proceso con la lectura y aprendizaje humanos: el propósito de ingerir texto para construir patrones estadísticos, razonó, es fundamentalmente diferente del propósito de los autores al escribir libros para entretenimiento o educación. Uso justo, otorgado. Pero Alsup trazó una línea nítida en cómo Anthropic obtuvo los libros. Descargar millones de copias pirateadas de bibliotecas en las sombras como Library Genesis no era uso justo, independientemente del propósito de entrenamiento previsto. Esa distinción impulsó el acuerdo de 1.5 mil millones de dólares, cubriendo aproximadamente 482,460 obras pirateadas a unos 3,000 dólares por libro[s].
Dos días después, en Kadrey v. Meta, el Juez Vince Chhabria llegó a una conclusión similar sobre el entrenamiento pero discrepó en la cuestión de la piratería. Se negó a tratar las descargas de bibliotecas en las sombras como un acto separado, analizando la copia y entrenamiento de Meta como una sola instancia de reproducción bajo uso justo[s]. Sin embargo, la opinión de Chhabria vino con una advertencia importante: el cuarto factor de uso justo, daño al mercado, podría volverse contra las empresas de IA en casos futuros a medida que maduren los mercados de licencias. El fallo fue una victoria para Meta, pero estrecha.
Mientras tanto, en Thomson Reuters v. ROSS Intelligence, el Juez Stephanos Bibas ya había otorgado juicio sumarioUn resumen de puntos legales escrito por reporteros judiciales que precede una opinión judicial publicada, pero no es parte de la decisión oficial. a Thomson Reuters en febrero de 2025, encontrando que el uso de ROSS de los resúmenes de Westlaw para entrenar una herramienta de investigación legal competidora no era uso justo bajo la ley[s]. La diferencia crítica: ROSS construyó una herramienta que competía directamente con el producto del cual copió. Cuando el entrenamiento de IA produce un sustituto de mercado en lugar de algo genuinamente nuevo, la defensa de uso justo colapsa.
Tres fallos. El entrenamiento es transformativo, excepto cuando la salida compite directamente. La piratería es una ofensa separada, excepto cuando no lo es. El daño al mercado apenas importa hoy, excepto que podría importar enormemente mañana. Esto no es un marco legal. Son tres jueces improvisando con un estatuto escrito antes de que alguien imaginara una máquina que pudiera leer cada libro jamás publicado en una tarde.
La Oficina de Derechos de Autor de Estados Unidos Opina
La Oficina de Derechos de Autor de Estados Unidos publicó la Parte 3 de su informe integral de política de IA el 9 de mayo de 2025, la articulación más detallada hasta ahora de cómo el derecho autor IA se aplica al entrenamiento de modelos generativos[s]. La Oficina no se anduvo con rodeos. Compilar un conjunto de datos de entrenamientoLa colección de información utilizada para enseñar a un sistema de IA cómo realizar tareas, formando la base de su conocimiento y capacidades. usando obras protegidas por derechos de autor «claramente implica el derecho de reproducción». El uso justo no puede evaluarse mirando solo el entrenamiento; los tribunales deben evaluar lo que esos modelos entrenados realmente producen en el campo[s].
La Oficina fue particularmente directa sobre la dilución del mercado. Los sistemas de IA generan contenido a una velocidad y escala que plantean «un riesgo serio de diluir los mercados para obras del mismo tipo que en sus datos de entrenamiento». Miles de novelas románticas generadas por IA inundando el mercado significa menos ventas para los autores humanos cuyo trabajo enseñó al modelo a escribir romance en primer lugar. Si existe un mercado de licencias, o podría desarrollarse plausiblemente, para entrenamiento con obras protegidas por derechos de autor, entonces eludirlo va directamente en contra de una defensa de uso justo.
El informe también tomó una línea dura sobre los sistemas de generación aumentada por recuperación (RAG), que extraen contenido en tiempo real de la web durante la generación de salida. La Oficina de Derechos de Autor trata RAG como categóricamente diferente del entrenamiento convencional: tanto la reproducción inicial no autorizada como la salida posterior de ese material son posibles infracciones. Esto importa para empresas como Perplexity AI, que ahora enfrenta múltiples demandas de editores de noticias incluyendo el New York Times y el Chicago Tribune[s].
Europa Elige Transparencia, América Elige Litigios
Mientras el derecho autor IA estadounidense se desarrolla a través de jurisprudencia cara y contradictoria, la Unión Europea optó por la regulación. A partir del 2 de agosto de 2025, cada proveedor de un modelo de IA de propósito general debe implementar una política de derechos de autor y publicar un «resumen suficientemente detallado» de sus datos de entrenamiento usando una plantilla obligatoria emitida por la Oficina Europea de IA[s]. Desde 2026, los desarrolladores deben verificar si una fuente de datos lleva una reserva de derechos de autor y excluir o licenciar ese contenido antes de usarlo[s].
El mecanismo de aplicación tiene dientes. La Oficina de IA puede multar a proveedores no conformes hasta el 3% del volumen de negocios anual global o 15 millones de euros, lo que sea mayor, con poderes de aplicación completamente operacionales para agosto de 2026[s]. El enfoque de la UE representa una elección filosófica: los creadores tienen el derecho de optar por no participar, las empresas deben probar el cumplimiento antes del entrenamiento, y la transparencia es el predeterminado. Es lo opuesto al modelo estadounidense, donde las empresas entrenan primero y argumentan uso justo después.
La brecha entre estos dos sistemas crea un mosaico legal que las empresas globales de IA deben navegar simultáneamente. Una tubería de entrenamiento aceptable en Nueva York puede ser ilegal en Bruselas. El contenido extraído legalmente en una jurisdicción se convierte en una responsabilidad en otra.
Japón y el Modelo Atípico
Japón se encuentra en el extremo opuesto del espectro. El Artículo 30-4 de su Ley de Derechos de Autor, enmendada en 2018, permite que las obras protegidas por derechos de autor se usen para aprendizaje automático sin autorización previa, siempre que el uso no involucre disfrutar el contenido expresivo en sí mismo y no «perjudique irrazonablemente los intereses legítimos» de los propietarios de derechos de autor[s]. Singapur adoptó un marco similar. Estos regímenes permisivos hacen que Tokio y Singapur sean atractivos para el desarrollo de IA precisamente porque eliminan la incertidumbre del derecho autor IA que aflige a Estados Unidos y la UE.
La permisividad de Japón no es ilimitada. Bajo presión de las industrias domésticas de manga y anime, el Programa Estratégico de PI del país ha añadido advertencias: si un modelo es entrenado predominantemente en el estilo de un artista específico para crear un sustituto directo de mercado, la excepción de derechos de autor puede no aplicar, exponiendo a los desarrolladores a responsabilidad por infracción[s]. Es una excepción dirigida, pero señala que incluso las jurisdicciones más amigables con la innovación reconocen que el derecho autor IA debe eventualmente explicar el desplazamiento económico de los creadores trabajadores.
El Contraargumento: La Innovación No Puede Esperar por Licencias
El argumento más fuerte para derechos amplios de entrenamiento de IA es práctico: los modelos de lenguaje modernos requieren miles de millones de tokens para lograr competencia. Negociar licencias individuales para cada obra protegida por derechos de autor en un corpus de entrenamientoUna gran colección de textos, imágenes u otros datos utilizada para entrenar modelos de inteligencia artificial mediante algoritmos de aprendizaje automático. sería imposiblemente lento y prohibitivamente caro. Las empresas que construyeron la generación actual de sistemas de IA lo hicieron porque podían acceder a toda la web abierta. Restringe ese acceso, y no obtienes autores mejor compensados; obtienes menos modelos de IA, peores, concentrados en las manos de empresas lo suficientemente ricas para permitirse acuerdos de licencias.
Hay fuerza genuina en este argumento. La respuesta temprana de la industria musical a la piratería digital, demandando a descargadores individuales mientras resistía el streaming, retrasó la innovación legítima por una década. Una reacción exagerada similar a la aplicación del derecho autor IA podría empujar el desarrollo hacia jurisdicciones con protecciones más débiles, sin enriquecer a nadie.
Pero la analogía tiene límites. Spotify paga a los artistas (aunque mal). La tubería de entrenamiento de IA, como existía hasta 2024, no pagó a nadie. El acuerdo de Anthropic no surgió de una negociación de licencias; surgió de una empresa descargando medio millón de libros pirateados y siendo atrapada. Los acuerdos y tratos de licencias que siguieron en 2025, incluyendo el acuerdo de Universal Music Group con Udio y el trato de Warner Music Group con Suno[s], sucedieron solo después de que los litigios hicieron que el costo de no licenciar fuera más alto que el costo de pagar. La aplicación de derechos de autor, en otras palabras, es lo que creó el mercado de licencias que los defensores de la innovación ahora dicen que debería reemplazar la aplicación de derechos de autor.
Lo Que Tiene Que Cambiar
El marco actual del derecho autor IA no es meramente obsoleto; es incoherente. El uso justo, una doctrina diseñada para casos que involucran un puñado de obras y propósitos transformativos identificables, no puede escalar a una tecnología que ingiere toda la producción escrita de la civilización humana para producir un motor de predicción de propósito general. Cuatro observaciones sobre lo que debe seguir:
Primero, las licencias obligatorias están llegando. La alternativa, pedir a cada juez en cada jurisdicción que reinvente la doctrina de uso justo desde primeros principios para cada nueva arquitectura de modelo, está produciendo contradicciones más rápido de lo que los tribunales de apelación pueden resolverlas. Una licencia estatutaria para entrenamiento de IA, con compensación obligatoria y reportes transparentes, daría a las empresas certidumbre legal y a los creadores ingresos garantizados.
Segundo, los requisitos de transparencia se extenderán. La plantilla obligatoria de divulgación de datos de entrenamiento de la UE es la plantilla que otras jurisdicciones copiarán. Los 20 millones de registros de ChatGPT que un juez federal ordenó a OpenAI entregar en enero de 2026[s] demuestran que los tribunales están dispuestos a mirar dentro de la caja negra. Las empresas que no puedan dar cuenta de en qué entrenaron se encontrarán en la misma posición que Anthropic: escribiendo cheques muy grandes.
Tercero, el requisito de autoría humana está establecido pero es insuficiente. La negativa de certiorari de la Corte Suprema de Estados Unidos en marzo de 2026 en Thaler v. Perlmutter confirmó que las obras generadas por IA requieren autoría humana para ser protegibles por derechos de autor[s]. Pero ese fallo no dice nada sobre los millones de obras que son parcialmente asistidas por IA, que es donde ocurrirán las disputas fronterizas reales.
Cuarto, y más crítico, la fragmentación global del derecho autor IA es en sí misma una falla política. Un equipo de producción televisiva usando activos generados por IA podría encontrar materiales aceptables en Japón pero infractores en la UE[s]. Sin coordinación internacional, el resultado predeterminado es una carrera hacia abajo, donde el entrenamiento de IA migra a la jurisdicción con las protecciones más débiles, y los creadores en todas partes pierden.
El patrimonio de propiedad intelectual no va a volver. La pregunta es si lo que lo reemplaza será un sistema coherente y aplicable que compense a las personas cuyo trabajo hace posible la IA, o un mosaico incoherente donde los únicos ganadores son las empresas que pueden permitirse los mejores abogados.



