Meinung 11 Min. Lesezeit

Der Tod der Geistigen Eigentumsallmende: Wie KI-Trainingsdatensätze eine Vollständige Neufassung des Globalen Urheberrechts Erzwingen

Dieser Artikel wurde automatisch aus dem Englischen von einer KI übersetzt. Originalversion auf Englisch lesen →
Hammer und Gesetzbücher, die die globale Neufassung des Urheberrecht KI repräsentieren
🎧 Anhören
Apr 11, 2026

Das Urheberrecht KI ist kaputt. Nicht auf die langsame, würdevolle Art, wie rechtliche Rahmenwerke normalerweise in die Veralterung hineinwachsen, sondern auf die spektakuläre, widersprüchliche Art, die passiert, wenn ein jahrhundertealtes System mit einer Technologie kollidiert, für deren Antizipation es nie entwickelt wurde. Über 70 Urheberrechtsverletzungsklagen wurden bis Anfang 2026 gegen KI-Unternehmen eingereicht[s], mehr als das Doppelte der Anzahl von Ende 2024. Der größte Urheberrechtsvergleich in der US-Geschichte, 1,5 Milliarden Dollar, wurde von einem einzigen KI-Unternehmen für das Herunterladen piratierter Bücher bezahlt[s]. Und drei Bundesrichter, die innerhalb weniger Monate über verwandte Fragen zu KI-Training und Urheberrecht urteilten, kamen zu Schlussfolgerungen, die in völlig verschiedene Richtungen zeigten[s].

Die geistige Eigentumsallmende, jenes gemeinsame rechtliche Verständnis davon, was Schöpfer besitzen, was die Öffentlichkeit nutzen darf und wo faire Nutzung beginnt und endet, ist tot. Was sie ersetzt, wird bestimmen, ob die nächste Generation von Künstlern, Journalisten und Forschern für das Rohmaterial entschädigt wird, das den profitabelsten Technologiesektor der Erde antreibt, oder ob ihre Arbeit einfach zu kostenlosem Treibstoff für jemand anderes Milliarden-Dollar-Modell wird.

Urheberrecht KI vor Gericht: Drei Urteile, Drei Realitäten

Der klarste Beweis, dass das Urheberrecht KI keine kohärente Doktrin hat, kam im Juni 2025, als zwei Bundesgerichte in Nordkalifornien innerhalb von 48 Stunden summary judgment-Gutachten abgaben und ein drittes in Delaware bereits Monate zuvor eine widersprüchliche Grundlage geschaffen hatte.

In Bartz v. Anthropic urteilte Richter William Alsup, dass das Training eines großen SprachmodellsEin Maschinenlern-System, das auf großen Mengen von Text trainiert wurde und menschliche Sprache vorhersagt und generiert. Diese Systeme wie GPT und Claude zeigen überraschende Fähigkeiten, machen aber auch selbstbewusst Fehler. mit urheberrechtlich geschützten Büchern „transformativ, spektakulär so” sei[s]. Er verglich den Prozess mit menschlichem Lesen und Lernen: der Zweck, Text aufzunehmen, um statistische Muster zu erstellen, sei, so argumentierte er, grundlegend anders als der Zweck der Autoren, Bücher zur Unterhaltung oder Bildung zu schreiben. Faire Nutzung, gewährt. Aber Alsup zog eine scharfe Linie bei der Art, wie Anthropic die Bücher erhalten hatte. Das Herunterladen von Millionen piratierter Kopien von SchattenbibliothekenOnline-Repositorien, die illegal urheberrechtlich geschützte Bücher und Fachpublikationen verbreiten und traditionelle Verlagssysteme umgehen. wie Library Genesis war keine faire Nutzung, unabhängig vom beabsichtigten Trainingszweck. Diese Unterscheidung trieb den 1,5-Milliarden-Dollar-Vergleich an, der etwa 482.460 piratierte Werke zu ungefähr 3.000 Dollar pro Buch abdeckte[s].

Zwei Tage später kam Richter Vince Chhabria in Kadrey v. Meta zu einem ähnlichen Schluss bezüglich des Trainings, widersprach aber der Pirateriefrage. Er weigerte sich, die Schattenbibliothek-Downloads als separaten Akt zu behandeln und analysierte Metas Kopieren und Training als eine einzige Instanz der Reproduktion unter fairer Nutzung[s]. Dennoch kam Chhabrias Gutachten mit einer wichtigen Warnung: der vierte Fair-Use-Faktor, Marktschaden, könnte sich in zukünftigen Fällen gegen KI-Unternehmen wenden, während Lizenzierungsmärkte reifen. Das Urteil war ein Sieg für Meta, aber ein knapper.

Unterdessen hatte Richter Stephanos Bibas in Thomson Reuters v. ROSS Intelligence bereits im Februar 2025 ein summarisches UrteilGerichtsurteil, das einen Fall ohne Verhandlung abschließt, wenn kein Streit über die Haupttatsachen besteht und die Rechtslage eindeutig ist. zugunsten von Thomson Reuters erlassen und festgestellt, dass ROSS’ Nutzung von Westlaw-Leitsätzen zum Training eines konkurrierenden juristischen Recherche-Tools rechtlich keine faire Nutzung war[s]. Der kritische Unterschied: ROSS baute ein Tool, das direkt mit dem Produkt konkurrierte, von dem es kopierte. Wenn KI-Training einen Marktsubstitut statt etwas wirklich Neues produziert, bricht die Fair-Use-Verteidigung zusammen.

Drei Urteile. Training ist transformativ, außer wenn die Ausgabe direkt konkurriert. Piraterie ist eine separate Straftat, außer wenn sie es nicht ist. Marktschaden zählt heute kaum, außer er könnte morgen enorm zählen. Das ist kein rechtlicher Rahmen. Das sind drei Richter, die mit einem Statut improvisieren, das geschrieben wurde, bevor sich jemand eine Maschine vorstellen konnte, die jeden jemals veröffentlichten Buchstaben eines Nachmittags lesen könnte.

Das US-Urheberrechtsamt Äußert Sich

Das US-Urheberrechtsamt veröffentlichte am 9. Mai 2025 Teil 3 seines umfassenden KI-Politikberichts, die bisher detaillierteste Darstellung dessen, wie das Urheberrecht KI auf das Training generativer Modelle anwendet[s]. Das Amt nahm kein Blatt vor den Mund. Das Zusammenstellen eines Trainingsdatensatzes unter Verwendung urheberrechtlich geschützter Werke „impliziert eindeutig das Reproduktionsrecht”. Faire Nutzung kann nicht beurteilt werden, indem man nur das Training betrachtet; Gerichte müssen bewerten, was diese trainierten Modelle tatsächlich im Feld produzieren[s].

Das Amt war besonders deutlich bezüglich Marktverdünnung. KI-Systeme generieren Inhalte mit einer Geschwindigkeit und einem Umfang, die „ein ernstes Risiko der Verdünnung von Märkten für Werke derselben Art wie in ihren TrainingsdatenDie Sammlung von Informationen, die verwendet wird, um einem KI-System beizubringen, wie Aufgaben ausgeführt werden, und die Grundlage seines Wissens und seiner Fähigkeiten bildet.” darstellen. Tausende von KI-generierte Liebesromane, die den Markt überfluten, bedeuten weniger Verkäufe für die menschlichen Autoren, deren Arbeit das Modell gelehrt hat, überhaupt Liebesromane zu schreiben. Wenn ein Lizenzierungsmarkt existiert oder sich plausibel entwickeln könnte für das Training mit urheberrechtlich geschützten Werken, dann arbeitet dessen Umgehung direkt gegen eine Fair-Use-Verteidigung.

Der Bericht nahm auch eine harte Linie zu Retrieval-Augmented Generation (RAG)-Systemen ein, die während der Ausgabegenerierung Echtzeit-Inhalte aus dem Web ziehen. Das Urheberrechtsamt behandelt RAG als kategorisch anders als herkömmliches Training: sowohl die anfängliche unbefugte Reproduktion als auch die spätere Ausgabe dieses Materials sind potenzielle Verletzungen. Das zählt für Unternehmen wie Perplexity AI, das nun mehreren Klagen von Nachrichtenverlagen einschließlich der New York Times und der Chicago Tribune gegenübersteht[s].

Europa Wählt Transparenz, Amerika Wählt Rechtsstreit

Während sich das US-amerikanische Urheberrecht KI durch teure, widersprüchliche Rechtsprechung entwickelt, entschied sich die Europäische Union für Regulierung. Ab dem 2. August 2025 muss jeder Anbieter eines allgemeinen KI-Modells eine Urheberrechtspolitik implementieren und eine „ausreichend detaillierte Zusammenfassung” seiner Trainingsdaten unter Verwendung einer obligatorischen Vorlage des Europäischen KI-Büros veröffentlichen[s]. Ab 2026 müssen Entwickler prüfen, ob eine Datenquelle einen Urheberrechtsvorbehalt trägt und diesen Inhalt vor der Nutzung ausschließen oder lizenzieren[s].

Der Durchsetzungsmechanismus hat Zähne. Das KI-Büro kann nicht konforme Anbieter mit bis zu 3% des jährlichen globalen Umsatzes oder 15 Millionen Euro bestrafen, je nachdem, was höher ist, wobei die Durchsetzungsbefugnisse bis August 2026 voll funktionsfähig sind[s]. Die EU-Herangehensweise stellt eine philosophische Wahl dar: Schöpfer haben das Recht auf Opt-out, Unternehmen müssen Compliance vor dem Training beweisen, und Transparenz ist der Standard. Es ist das Gegenteil des amerikanischen Modells, wo Unternehmen zuerst trainieren und später faire Nutzung argumentieren.

Die Kluft zwischen diesen beiden Systemen schafft ein rechtliches Flickwerk, das globale KI-Unternehmen gleichzeitig navigieren müssen. Eine in New York akzeptable Trainingspipeline kann in Brüssel illegal sein. Inhalte, die in einer Jurisdiktion rechtmäßig geschabt wurden, werden in einer anderen zu einer Haftung.

Japan und das Außenseitermodell

Japan steht am entgegengesetzten Ende des Spektrums. Artikel 30-4 seines Urheberrechtsgesetzes, 2018 geändert, erlaubt die Nutzung urheberrechtlich geschützter Werke für maschinelles Lernen ohne vorherige Autorisierung, vorausgesetzt, die Nutzung beinhaltet nicht das Genießen des expressiven Inhalts selbst und „beeinträchtigt nicht unvernünftig die legitimen Interessen” der Urheberrechtsinhaber[s]. Singapur übernahm ein ähnliches Rahmenwerk. Diese permissiven Regime machen Tokio und Singapur für die KI-Entwicklung attraktiv, gerade weil sie die Ungewissheit des Urheberrecht KI eliminieren, die die USA und die EU plagt.

Japans Permissivität ist nicht unbegrenzt. Unter Druck der heimischen Manga- und Anime-Industrien hat das IP Strategic Program des Landes Vorbehalte hinzugefügt: wenn ein Modell überwiegend auf den Stil eines spezifischen Künstlers trainiert wird, um einen direkten Marktsubstitut zu schaffen, könnte die Urheberrechtsausnahme nicht gelten, was Entwickler der Verletzungshaftung aussetzt[s]. Es ist eine gezielte Ausnahme, aber sie signalisiert, dass selbst die innovationsfreundlichsten Jurisdiktionen erkennen, dass das Urheberrecht KI schließlich die wirtschaftliche Verdrängung arbeitender Schöpfer berücksichtigen muss.

Das Gegenargument: Innovation Kann Nicht auf Lizenzierung Warten

Das stärkste Argument für breite KI-Trainingsrechte ist praktisch: moderne Sprachmodelle benötigen Milliarden von TokenDie grundlegenden Texteinheiten, die KI-Sprachmodelle verarbeiten und zählen, typischerweise Wörter, Wortteile oder Satzzeichen repräsentierend., um Kompetenz zu erreichen. Individuelle Lizenzen für jedes urheberrechtlich geschützte Werk in einem TrainingskorpusEine große Sammlung von Texten, Bildern oder anderen Daten, die zum Trainieren von KI-Modellen durch maschinelle Lernalgorithmen verwendet wird. zu verhandeln wäre unmöglich langsam und unerschwinglich teuer. Die Unternehmen, die die aktuelle Generation von KI-Systemen gebaut haben, taten dies, weil sie auf das gesamte offene Web zugreifen konnten. Beschränkt man diesen Zugang, und man bekommt nicht besser entschädigte Autoren; man bekommt weniger, schlechtere KI-Modelle, konzentriert in den Händen von Unternehmen, die reich genug sind, sich Lizenzierungsdeals zu leisten.

Es gibt echte Kraft in diesem Argument. Die frühe Antwort der Musikindustrie auf digitale Piraterie, individuelle Downloader zu verklagen während sie dem Streaming widerstand, verzögerte legitime Innovation um ein Jahrzehnt. Eine ähnliche Überreaktion auf die Durchsetzung des Urheberrecht KI könnte die Entwicklung in Jurisdiktionen mit schwächeren Schutzmaßnahmen drängen und niemanden bereichern.

Aber die Analogie hat Grenzen. Spotify bezahlt Künstler (wenn auch schlecht). Die KI-Trainingspipeline, wie sie bis 2024 existierte, bezahlte niemanden. Der Anthropic-Vergleich entstand nicht aus einer Lizenzverhandlung; er entstand, weil ein Unternehmen eine halbe Million piratierter Bücher heruntergeladen und sich dabei erwischen ließ. Die Vergleiche und Lizenzdeals, die 2025 folgten, einschließlich Universal Music Groups Vereinbarung mit Udio und Warner Music Groups Deal mit Suno[s], geschahen erst, nachdem Rechtsstreitigkeiten die Kosten des Nicht-Lizenzierens höher machten als die Kosten des Bezahlens. Urheberrechtsdurchsetzung, mit anderen Worten, ist das, was den Lizenzierungsmarkt geschaffen hat, von dem Innovationsbefürworter nun sagen, er sollte die Urheberrechtsdurchsetzung ersetzen.

Was Sich Ändern Muss

Das aktuelle Urheberrecht KI-Rahmenwerk ist nicht nur veraltet; es ist inkohärent. Faire Nutzung, eine Doktrin, die für Fälle mit einer Handvoll Werken und identifizierbaren transformativen Zwecken entwickelt wurde, kann nicht auf eine Technologie skaliert werden, die die gesamte schriftliche Ausgabe der menschlichen Zivilisation aufnimmt, um eine allgemeine Vorhersagemaschine zu produzieren. Vier Beobachtungen über das, was folgen muss:

Erstens, Zwangslizenzierung kommt. Die Alternative, jeden Richter in jeder Jurisdiktion zu bitten, die Fair-Use-Doktrin von ersten Prinzipien für jede neue Modellarchitektur neu zu erfinden, produziert Widersprüche schneller, als Berufungsgerichte sie lösen können. Eine gesetzliche Lizenz für KI-Training, mit obligatorischer EntschädigungKompensation, die von einer besiegten Nation an den Sieger gezahlt wird, um Kriegskosten, Schäden zu decken oder als Strafe, typischerweise durch Friedensverträge auferlegt. und transparenter Berichterstattung, würde Unternehmen rechtliche Sicherheit und Schöpfern garantiertes Einkommen geben.

Zweitens, Transparenzanforderungen werden sich ausbreiten. Die obligatorische Trainingsdata-Offenlegungsvorlage der EU ist die Vorlage, die andere Jurisdiktionen kopieren werden. Die 20 Millionen ChatGPT-Logs, die ein Bundesrichter OpenAI im Januar 2026 zu übergeben befahl[s], zeigen, dass Gerichte bereit sind, in die Blackbox zu schauen. Unternehmen, die nicht für das Rechenschaft ablegen können, worauf sie trainiert haben, werden sich in derselben Position wie Anthropic wiederfinden: sehr große Schecks schreiben.

Drittens, die menschliche Autorschaftsanforderung ist geklärt, aber unzureichend. Die Verweigerung der Certiorari durch den US Supreme Court im März 2026 in Thaler v. Perlmutter bestätigte, dass KI-generierte Werke menschliche Autorschaft benötigen, um urheberrechtsfähig zu sein[s]. Aber diese Entscheidung sagt nichts über die Millionen von Werken, die teilweise KI-unterstützt sind, wo die echten Grenzstreitigkeiten auftreten werden.

Viertens, und am kritischsten, die globale Fragmentierung des Urheberrecht KI ist selbst ein politisches Versagen. Ein Fernsehproduktionsteam, das KI-generierte Assets verwendet, könnte Materialien finden, die in Japan akzeptabel, aber in der EU verletzend sind[s]. Ohne internationale Koordination ist das Standard-Ergebnis ein Wettlauf nach unten, wo KI-Training in die Jurisdiktion mit den schwächsten Schutzmaßnahmen migriert und Schöpfer überall verlieren.

Die geistige Eigentumsallmende kommt nicht zurück. Die Frage ist, ob das, was sie ersetzt, ein kohärentes, durchsetzbares System sein wird, das die Menschen entschädigt, deren Arbeit KI möglich macht, oder ein inkohärentes Flickwerk, wo die einzigen Gewinner die Unternehmen sind, die sich die besten Anwälte leisten können.

Wie hat Ihnen dieser Artikel gefallen?
Artikel teilen

Fehler gefunden? Melden Sie ihn

Quellen