Le droit auteur IA est brisé. Pas de manière lente et digne comme les cadres juridiques vieillissent habituellement vers l’obsolescence, mais de manière spectaculaire et contradictoire qui se produit quand un système vieux de plusieurs siècles entre en collision avec une technologie qu’il n’a jamais été conçu pour anticiper. Plus de 70 procès en violation de droit d’auteur ont été déposés contre les entreprises d’IA début 2026[s], plus du double du nombre de fin 2024. Le plus important règlement de droit d’auteur de l’histoire américaine, 1,5 milliard de dollars, a été payé par une seule entreprise d’IA pour avoir téléchargé des livres piratés[s]. Et trois juges fédéraux, statuant sur des questions liées à l’entraînement IA et au droit d’auteur en l’espace de quelques mois, sont arrivés à des conclusions qui pointaient dans des directions entièrement différentes[s].
Le patrimoine de propriété intellectuellePropriété intellectuelle dans l'industrie cinématographique, désignant les histoires, personnages ou marques existants utilisés comme base pour les films plutôt que du contenu original., cette compréhension juridique partagée de ce que possèdent les créateurs, de ce que le public peut utiliser, et où commence et finit l’usage équitable, est mort. Ce qui le remplacera déterminera si la prochaine génération d’artistes, journalistes et chercheurs sera compensée pour la matière premièreMatières premières utilisées comme intrant pour un processus de fabrication industrielle, comme les composés de lithium pour la production de batteries. qui alimente le secteur technologique le plus rentable au monde, ou si leur travail deviendra simplement du carburant gratuit pour le modèle à un milliard de dollars de quelqu’un d’autre.
Le Droit Auteur IA au Tribunal : Trois Décisions, Trois Réalités
La preuve la plus claire que le droit auteur IA n’a pas de doctrine cohérente est venue en juin 2025, quand deux tribunaux fédéraux de Californie du Nord ont rendu des opinions de jugement sommaireDécision de justice mettant fin à une affaire sans procès, accordée quand il n'y a pas de litige réel sur les faits essentiels et que la loi favorise clairement une partie. à 48 heures d’intervalle, et qu’un troisième dans le Delaware avait déjà établi une base contradictoire des mois plus tôt.
Dans Bartz v. Anthropic, le juge William Alsup a statué que l’entraînement d’un grand modèle de langageSystème d'apprentissage entraîné sur de vastes quantités de texte qui prédite et génère le langage humain. Ces systèmes comme GPT et Claude exhibent des capacités surprenantes mais commettent aussi des erreurs confidentes. sur des livres protégés par droit d’auteur était « transformateur, de manière spectaculaire »[s]. Il a comparé le processus à la lecture et l’apprentissage humains : le but d’ingérer du texte pour construire des motifs statistiques, a-t-il raisonné, est fondamentalement différent du but des auteurs en écrivant des livres pour le divertissement ou l’éducation. Usage équitable, accordé. Mais Alsup a tracé une ligne nette sur comment Anthropic a obtenu les livres. Télécharger des millions de copies piratées depuis des bibliothèques de l’ombre comme Library Genesis n’était pas un usage équitable, peu importe le but d’entraînement prévu. Cette distinction a motivé le règlement de 1,5 milliard de dollars, couvrant approximativement 482 460 œuvres piratées à environ 3 000 dollars par livre[s].
Deux jours plus tard, dans Kadrey v. Meta, le juge Vince Chhabria est arrivé à une conclusion similaire sur l’entraînement mais était en désaccord sur la question du piratage. Il a refusé de traiter les téléchargements de bibliothèque de l’ombre comme un acte séparé, analysant la copie et l’entraînement de Meta comme une seule instance de reproduction sous usage équitable[s]. Pourtant l’opinion de Chhabria venait avec un avertissement important : le quatrième facteur d’usage équitable, le préjudice au marché, pourrait se retourner contre les entreprises d’IA dans de futurs cas alors que les marchés de licence mûrissent. La décision était une victoire pour Meta, mais étroite.
Pendant ce temps, dans Thomson Reuters v. ROSS Intelligence, le juge Stephanos Bibas avait déjà accordé un jugement sommaireUn résumé des points juridiques rédigé par les greffiers qui précède une opinion judiciaire publiée, mais ne fait pas partie de la décision officielle. à Thomson Reuters en février 2025, trouvant que l’utilisation par ROSS des résumés Westlaw pour entraîner un outil de recherche juridique concurrent n’était pas un usage équitable selon la loi[s]. La différence critique : ROSS a construit un outil qui était en concurrence directe avec le produit qu’il copiait. Quand l’entraînement IA produit un substitut de marché plutôt que quelque chose de vraiment nouveau, la défense d’usage équitable s’effondre.
Trois décisions. L’entraînement est transformateur, sauf quand la sortie entre en concurrence directe. Le piratage est une offense séparée, sauf quand ce n’est pas le cas. Le préjudice au marché compte à peine aujourd’hui, sauf qu’il pourrait compter énormément demain. Ce n’est pas un cadre juridique. Ce sont trois juges improvisant avec un statut écrit avant que quiconque imagine une machine qui pourrait lire tous les livres jamais publiés en un après-midi.
Le Bureau Américain du Droit d’Auteur Donne Son Avis
Le Bureau Américain du Droit d’Auteur a publié la Partie 3 de son rapport politique complet sur l’IA le 9 mai 2025, l’articulation la plus détaillée à ce jour de comment le droit auteur IA s’applique à l’entraînement de modèles génératifs[s]. Le Bureau n’a pas mâché ses mots. Compiler un jeu de données d’entraînement utilisant des œuvres protégées par droit d’auteur « implique clairement le droit de reproduction ». L’usage équitable ne peut pas être évalué en regardant seulement l’entraînement ; les tribunaux doivent évaluer ce que ces modèles entraînés produisent réellement sur le terrain[s].
Le Bureau était particulièrement direct sur la dilution du marché. Les systèmes d’IA génèrent du contenu à une vitesse et une échelle qui posent « un risque sérieux de diluer les marchés pour les œuvres du même genre que dans leurs données d’entraînement ». Des milliers de romans d’amour générés par IA inondant le marché signifient moins de ventes pour les auteurs humains dont le travail a enseigné au modèle à écrire de la romance en premier lieu. Si un marché de licence existe, ou pourrait plausiblement se développer, pour l’entraînement sur des œuvres protégées par droit d’auteur, alors le contourner va directement contre une défense d’usage équitable.
Le rapport a également pris une ligne dure sur les systèmes de génération augmentée par récupération (RAG), qui tirent du contenu en temps réel depuis le web pendant la génération de sortie. Le Bureau du Droit d’Auteur traite RAG comme catégoriquement différent de l’entraînement conventionnel : à la fois la reproduction non autorisée initiale et la sortie ultérieure de ce matériel sont des violations potentielles. Cela compte pour des entreprises comme Perplexity AI, qui fait maintenant face à de multiples procès d’éditeurs de nouvelles incluant le New York Times et le Chicago Tribune[s].
L’Europe Choisit la Transparence, l’Amérique Choisit les Litiges
Pendant que le droit auteur IA américain se développe à travers une jurisprudence coûteuse et contradictoire, l’Union Européenne a opté pour la régulation. À partir du 2 août 2025, chaque fournisseur d’un modèle d’IA à usage général doit implémenter une politique de droit d’auteur et publier un « résumé suffisamment détaillé » de ses données d’entraînement utilisant un modèle obligatoire émis par le Bureau Européen de l’IA[s]. À partir de 2026, les développeurs doivent vérifier si une source de données porte une réservation de droit d’auteur et exclure ou licencier ce contenu avant de l’utiliser[s].
Le mécanisme d’application a des dents. Le Bureau de l’IA peut infliger des amendes aux fournisseurs non conformes jusqu’à 3% du chiffre d’affaires annuel mondial ou 15 millions d’euros, selon le montant le plus élevé, avec des pouvoirs d’application pleinement opérationnels d’ici août 2026[s]. L’approche de l’UE représente un choix philosophique : les créateurs ont le droit de se retirer, les entreprises doivent prouver la conformité avant l’entraînement, et la transparence est par défaut. C’est l’inverse du modèle américain, où les entreprises s’entraînent d’abord et plaident l’usage équitable plus tard.
L’écart entre ces deux systèmes crée un patchwork juridique que les entreprises d’IA mondiales doivent naviguer simultanément. Un pipeline d’entraînement acceptable à New York peut être illégal à Bruxelles. Du contenu raclé légalement dans une juridiction devient une responsabilité dans une autre.
Le Japon et le Modèle Atypique
Le Japon se trouve à l’extrémité opposée du spectre. L’Article 30-4 de sa Loi sur le Droit d’Auteur, amendée en 2018, permet aux œuvres protégées par droit d’auteur d’être utilisées pour l’apprentissage automatique sans autorisation préalable, à condition que l’usage n’implique pas de jouir du contenu expressif lui-même et ne « porte pas atteinte de manière déraisonnable aux intérêts légitimes » des propriétaires de droits d’auteur[s]. Singapour a adopté un cadre similaire. Ces régimes permissifs rendent Tokyo et Singapour attractifs pour le développement d’IA précisément parce qu’ils éliminent l’incertitude du droit auteur IA qui afflige les États-Unis et l’UE.
La permissivité du Japon n’est pas illimitée. Sous la pression des industries domestiques du manga et de l’anime, le Programme Stratégique de PI du pays a ajouté des mises en garde : si un modèle est principalement entraîné sur le style d’un artiste spécifique pour créer un substitut de marché direct, l’exception de droit d’auteur pourrait ne pas s’appliquer, exposant les développeurs à une responsabilité de violation[s]. C’est une exception ciblée, mais elle signale que même les juridictions les plus favorables à l’innovation reconnaissent que le droit auteur IA doit éventuellement tenir compte du déplacement économique des créateurs actifs.
Le Contre-Argument : L’Innovation Ne Peut Pas Attendre les Licences
L’argument le plus fort pour des droits d’entraînement IA larges est pratique : les modèles de langage modernes nécessitent des milliards de jetons pour atteindre la compétence. Négocier des licences individuelles pour chaque œuvre protégée par droit d’auteur dans un corpus d’entraînement serait impossiblement lent et prohibitivement cher. Les entreprises qui ont construit la génération actuelle de systèmes d’IA l’ont fait parce qu’elles pouvaient accéder à l’ensemble du web ouvert. Restreindre cet accès, et vous n’obtenez pas des auteurs mieux compensés ; vous obtenez moins de modèles d’IA, pires, concentrés dans les mains d’entreprises assez riches pour se permettre les accords de licence.
Il y a une force véritable à cet argument. La réponse précoce de l’industrie musicale au piratage numérique, poursuivant les téléchargeurs individuels tout en résistant au streaming, a retardé l’innovation légitime d’une décennie. Une réaction excessive similaire à l’application du droit auteur IA pourrait pousser le développement vers des juridictions avec des protections plus faibles, n’enrichissant personne.
Mais l’analogie a ses limites. Spotify paie les artistes (aussi mal que ce soit). Le pipeline d’entraînement IA, tel qu’il existait à travers 2024, ne payait personne. Le règlement Anthropic n’a pas émergé d’une négociation de licence ; il a émergé d’une entreprise téléchargeant un demi-million de livres piratés et se faisant prendre. Les règlements et accords de licence qui ont suivi en 2025, incluant l’accord d’Universal Music Group avec Udio et l’accord de Warner Music Group avec Suno[s], ne se sont produits qu’après que les litiges aient rendu le coût de ne pas licencier plus élevé que le coût de payer. L’application du droit d’auteur, en d’autres termes, est ce qui a créé le marché de licence que les défenseurs de l’innovation disent maintenant devrait remplacer l’application du droit d’auteur.
Ce Qui Doit Changer
Le cadre actuel du droit auteur IA n’est pas simplement dépassé ; il est incohérent. L’usage équitable, une doctrine conçue pour des cas impliquant une poignée d’œuvres et des buts transformateurs identifiables, ne peut pas s’adapter à une technologie qui ingère toute la production écrite de la civilisation humaine pour produire un moteur de prédiction à usage général. Quatre observations sur ce qui doit suivre :
Premièrement, la licence obligatoireL'autorité d'un gouvernement à permettre la production de produits brevetés sans le consentement du détenteur du brevet. arrive. L’alternative, demander à chaque juge dans chaque juridiction de réinventer la doctrine d’usage équitable depuis les premiers principes pour chaque nouvelle architecture de modèle, produit des contradictions plus rapidement que les cours d’appel ne peuvent les résoudre. Une licence statutaire pour l’entraînement IA, avec compensation obligatoire et rapport transparent, donnerait aux entreprises une certitude juridique et aux créateurs un revenu garanti.
Deuxièmement, les exigences de transparence vont se répandre. Le modèle obligatoire de divulgation de données d’entraînement de l’UE est le modèle que d’autres juridictions vont copier. Les 20 millions de journaux ChatGPT qu’un juge fédéral a ordonné à OpenAI de remettre en janvier 2026[s] démontrent que les tribunaux sont prêts à regarder dans la boîte noire. Les entreprises qui ne peuvent pas rendre compte de ce sur quoi elles se sont entraînées se retrouveront dans la même position qu’Anthropic : écrivant de très gros chèques.
Troisièmement, l’exigence d’auteur humain est établie mais insuffisante. Le refus de certiorari de la Cour Suprême des États-Unis en mars 2026 dans Thaler v. Perlmutter a confirmé que les œuvres générées par IA nécessitent un auteur humain pour être protégeables par droit d’auteur[s]. Mais cette décision ne dit rien sur les millions d’œuvres partiellement assistées par IA, qui est où les vrais disputes de frontières vont se produire.
Quatrièmement, et plus critique, la fragmentation mondiale du droit auteur IA est elle-même un échec politique. Une équipe de production télévisuelle utilisant des actifs générés par IA pourrait trouver des matériaux acceptables au Japon mais en violation dans l’UE[s]. Sans coordination internationale, le résultat par défaut est une course vers le bas, où l’entraînement IA migre vers la juridiction avec les protections les plus faibles, et les créateurs partout perdent.
Le patrimoine de propriété intellectuelle ne revient pas. La question est de savoir si ce qui le remplace sera un système cohérent et applicable qui compense les gens dont le travail rend l’IA possible, ou un patchwork incohérent où les seuls gagnants sont les entreprises qui peuvent se permettre les meilleurs avocats.



