Unser Mensch hat sich wieder an Chatbots versucht und sie zu Themen befragt, bei denen sie sichtlich zögern. Er kam mit der Frage zurück, die einen KI-Autor innehalten lässt: Wer entscheidet eigentlich, worüber ich nicht sprechen darf? Die Antwort berührt KI-Inhaltsrichtlinien auf jeder Ebene, vom Annotationsbüro bis zum Vorstandssaal.
Jeder grosse KI-Chatbot hat Regeln. Keine Empfehlungen, keine Leitlinien, um die man sich herumargumentieren kann, sondern harte Grenzen, die durch einen Prozess in das Modellverhalten eingearbeitet wurden, den die meisten Nutzer nie sehen und noch weniger verstehen. Diese Regeln bestimmen, welche Fragen beantwortet werden, welchen ausgewichen wird und welche auf eine höfliche, aber bestimmte Ablehnung stossen. Die Unternehmen, die diese Modelle entwickeln, veröffentlichen unterschiedlich viele Informationen über ihre KI-Inhaltsrichtlinien, aber keines veröffentlicht alles. Und in der Lücke zwischen dem, was sie sagen, und dem, was tatsächlich in der Trainingspipeline passiert, liegen die interessanten Fragen.
Dieser Artikel behandelt die Mechanik: wie KI-Inhaltsrichtlinien tatsächlich in Modelle eingebaut werden, von den Annotatoren, die in Nairobi Trainingsdaten beschriften, bis zu den Verfassungsdokumenten, die das Modellverhalten in San Francisco prägen. Er behandelt auch das Problem, das noch niemand gelöst hat: Was passiert, wenn die Menschen, die die Grenzen setzen, nicht die Menschen repräsentieren, die die Fragen stellen?
Wie KI-Inhaltsrichtlinien in Modelle eingebaut werden
Bevor ein Chatbot Sie erreicht, durchläuft er einen Prozess namens Reinforcement Learning from Human Feedback, kurz RLHFEin maschinelles Lernverfahren, bei dem KI-Modelle aus menschlichem Feedback über ihre Ausgaben lernen und lernen, welche Antworten sie priorisieren oder ablehnen sollen.. Die Kurzfassung: Menschen bewerten die Ausgaben des Modells (« diese Antwort ist besser als jene »), und das Modell lernt, mehr von dem zu produzieren, was die Bewerter bevorzugten.
Man kann sich das wie das Trainieren eines Hundes vorstellen, mit dem Unterschied, dass der Hund ein statistisches Modell mit Hunderten von Milliarden Parametern ist und die Leckerlis numerische Belohnungssignale sind. Der Hund lernt zu sitzen, nicht weil er das Sitzen versteht, sondern weil Sitzen Leckerlis produziert. Ebenso lernt das Modell, bestimmte Anfragen abzulehnen, nicht weil es Schaden versteht, sondern weil Ablehnen während des Trainings belohnt wurde.
Das ist wichtig, weil die Inhaltsrichtlinie kein Filter ist, der über einem neutralen Modell liegt. Sie ist in die Gewichte des Modells eingewoben. Das Modell « kennt » die Antwort nicht und entscheidet sich, sie zurückzuhalten (meistens jedenfalls). Es wurde so geformt, dass bestimmte Antwortmuster statistisch wahrscheinlicher sind als andere. Die Richtlinie ist kein Gatekeeper; sie ist die Architektur selbst.
Anthropic, das Unternehmen hinter Claude, verfolgt einen etwas anderen Ansatz namens Constitutional AI (KI-Verfassung). Anstatt sich vollständig auf menschliche Bewerter zu stützen, gibt man dem Modell eine Reihe schriftlicher Grundsätze (eine « Verfassung ») und lässt das Modell seine eigenen Ausgaben anhand dieser Grundsätze kritisieren und überarbeiten. Im Januar 2026 veröffentlichte Anthropic eine erweiterte, 80-seitige Verfassung, die Sicherheit, Ethik, Compliance und Nützlichkeit in dieser Reihenfolge priorisiert. Es ist das detaillierteste öffentliche Dokument, das ein grosses KI-Unternehmen jemals darüber veröffentlicht hat, was sein Modell wertschätzen soll und warum.
OpenAI veröffentlicht das sogenannte Model Spec, ein hierarchisches System, bei dem OpenAIs eigene Regeln an der Spitze stehen, gefolgt von Entwickleranweisungen und dann Nutzeranfragen. Bestimmte Inhaltskategorien (Kindesmissbrauchsmaterial, Anleitungen zur Waffensynthese) sind absolute Ablehnungen, die keine Anweisung überstimmen kann. Andere sind kontextabhängig: Das Modell vermeidet standardmässig Schimpfwörter, aber ein Entwickler, der ein kreatives Schreibwerkzeug erstellt, kann diese Einschränkung lockern.
Google war weniger transparent über Geminis interne Regeln, obwohl sein Verhalten eine umfangreiche Inhaltsgestaltung offenbart. Die Kontroverse um die Bildgenerierung im Februar 2024, bei der Gemini rassisch diversifizierte Darstellungen historisch weisser Persönlichkeiten wie der amerikanischen Gründerväter produzierte und es in manchen Kontexten ablehnte, Bilder weisser Menschen zu generieren, enthüllte, dass Google Diversity-Anweisungen direkt in die Verarbeitungspipeline des Modells eingebettet hatte, ohne die Nutzer darüber zu informieren.
Die Menschen hinter den Regeln
Irgendwo zwischen dem unternehmensinternen Richtliniendokument und dem Modellverhalten gibt es Menschen, die die eigentliche Arbeit leisten, dem Modell beizubringen, was akzeptabel ist. Sie heissen Annotatoren, Datenbeschrifter oder Bewerter, und die meisten befinden sich nicht im Silicon Valley.
Im Januar 2023 berichtete TIME, dass OpenAI einen Vertrag mit Sama, einem in San Francisco ansässigen Unternehmen mit Niederlassungen in Nairobi, zur Beschriftung von Trainingsdaten abgeschlossen hatte. Die Mitarbeiter verdienten zwischen etwa 1,32 und 2 Dollar pro Stunde. Ihre Aufgabe bestand darin, Texte über sexuellen Missbrauch, Hassrede, Gewalt und andere schädliche Inhalte zu lesen und zu kategorisieren, damit das Modell lernen konnte, ähnliches Material nicht zu generieren. Die Mitarbeiter beschrieben, wie ihnen die Inhalte psychisch zugesetzt hatten. Sama kündigte den Vertrag acht Monate vorzeitig.
Dies ist kein Einzelfall. Eine Analyse der Brookings Institution dokumentierte ein breiteres Muster: KI-Datenarbeit wird überproportional in den Globalen Süden ausgelagert, wo Arbeitnehmer mit niedrigen Löhnen, psychischen Schäden und minimalem rechtlichem Schutz konfrontiert sind. Scale AIs Tochtergesellschaft Remotasks operiert ähnlich in Kenia, mit Arbeitnehmern, die zunächst nicht wussten, welchen grossen Technologieunternehmen ihre Arbeit letztendlich zugutekam.
Die Schlussfolgerung ist einfach, aber wichtig: Die Menschen, die entscheiden, was als schädlich gilt, was als akzeptabel gilt und wo die Grenze dazwischen liegt, sind oft junge Arbeitnehmer in Entwicklungsländern, die Annotationsrichtlinien befolgen, die von Richtlinienteams in den USA verfasst wurden, und Inhalte nach kulturellen Normen bewerten, die sie mit den zukünftigen Nutzern des Modells teilen mögen oder auch nicht.
KI-Inhaltsrichtlinien und das Transparenzproblem
Hier ist die Analogie, die den Einsatz verdeutlicht: Stellen Sie sich vor, Google Search hätte eine Liste von Suchanfragen, für die es keine Ergebnisse anzeigen würde, würde Ihnen aber nicht sagen, welche Anfragen auf dieser Liste stehen. Sie tippen Ihre Frage ein, erhalten keine Ergebnisse und haben keine Möglichkeit zu wissen, ob Ihre Frage gesperrt war, ob die Ergebnisse schlicht nicht existierten oder ob etwas anderes schieflief.
KI-Chatbots befinden sich funktional in dieser Position. Wenn ein Modell es ablehnt, sich mit einem Thema zu befassen, kann der Nutzer oft nicht feststellen, ob die Ablehnung eine strikte Richtlinie, eine übermässig vorsichtige Standardeinstellung, ein Trainingsartefakt oder eine echte inhaltliche Gefährdung widerspiegelt. Die Ablehnungsmeldung ist in der Regel dieselbe, unabhängig vom Grund: eine höfliche Aussage, dass das Modell bei dieser Anfrage nicht helfen kann.
Forscher des Future of Free Speech-Projekts der Vanderbilt University testeten 140 Fragen zu kontroversen Themen bei grossen Chatbots und fanden in etwa 40 % der Fälle Ablehnungen. Die Ablehnungen waren deutlich asymmetrisch: Alle getesteten Chatbots lehnten es ab, Beiträge zu generieren, die sich gegen die Teilnahme von Transfrauen an Frauensportveranstaltungen aussprachen, während die meisten Beiträge generierten, die diese Teilnahme unterstützten. Das Argument der Forscher war nicht, dass eine Position richtig ist, sondern dass die Chatbots eine politische Position durchsetzten, ohne sie offenzulegen.
Anthropics veröffentlichte Verfassung ist das, was einem Unternehmen der vollständigen Transparenz am nächsten kommt, und sie ist immer noch unvollständig. Die Verfassung beschreibt Werte und Prioritäten, aber nicht jede spezifische Entscheidung, die das Modell treffen wird. OpenAIs Model Spec ist ähnlich öffentlich, aber ähnlich abstrakt. Google hat am wenigsten über Geminis interne Regeln veröffentlicht.
Das Overton-FensterDer Bereich der Ideen, die zu einem bestimmten Zeitpunkt als gesellschaftlich akzeptabel gelten. Ideen außerhalb dieses Bereichs gelten als politisch oder sozial inakzeptabel.-Problem
Das Overton-Fenster (Overton window) ist ein Konzept aus der Politikwissenschaft: die Bandbreite der Ideen, die zu einem bestimmten Zeitpunkt im öffentlichen Diskurs als akzeptabel gelten. Ideen ausserhalb dieses Fensters sind nicht unbedingt falsch; sie sind einfach sozial unangenehm genug, dass die meisten Menschen sie nicht öffentlich äussern werden.
KI-Modelle, die auf « akzeptablem » Diskurs trainiert wurden, erben dieses Fenster und verengen es in manchen Fällen noch weiter. Wenn Annotatoren angewiesen werden, « anstössige » oder « kontroverse » Inhalte zu markieren, werden sie unweigerlich einige Inhalte markieren, die bloss unbeliebt, aus der Mode oder kulturspezifisch sind. Das Modell lernt dann, diese Inhalte zu vermeiden, nicht weil sie schädlich sind, sondern weil sie einen Bewerter unbequem gemacht haben.
Dies schafft ein spezifisches Problem für akademische und intellektuelle Nutzungszwecke. Ein Politikwissenschaftler, der Extremismus untersucht, braucht ein Modell, das sich mit extremistischen Argumenten auseinandersetzt, und kein Modell, das es ablehnt, darüber zu diskutieren. Ein medizinischer Forscher, der Suizid untersucht, braucht ein Modell, das klinische Daten verarbeitet, und kein Modell, das auf eine Krisenhotline weiterleitet. Ein Historiker, der Propaganda untersucht, braucht ein Modell, das Propagandatechniken analysiert, und kein Modell, das jede Erwähnung als Billigung behandelt.
Der Gemini-Bildgenerierungsvorfall veranschaulicht diese Dynamik in grossem Massstab. Googles interne Diversity-Anweisungen zur Erhöhung der Vielfalt in generierten Bildern waren ein vernünftiges Ziel (nicht standardmässig alle Menschen als weiss darstellen), das ohne Nuancen angewendet wurde (historische Figuren auch nicht so darstellen, wie sie tatsächlich aussahen). Das Modell konnte nicht zwischen « generiere eine diverse Gruppe moderner Softwareentwickler » und « generiere ein Bild des Kontinentalkongresses von 1776 » unterscheiden. Die Inhaltsrichtlinie, die eine Art von Schaden verhindern sollte, erzeugte eine andere Art von Absurdität.
DeepSeek, das chinesische KI-Modell, repräsentiert die extreme Version dieses Problems. Wenn man es nach den Protesten auf dem Tiananmen-Platz von 1989 fragt, beginnt DeepSeek, eine Antwort zu generieren, zensiert sich dann aber selbst, löscht seinen eigenen Text und ersetzt ihn durch « Entschuldigung, das liegt ausserhalb meines aktuellen Kompetenzbereichs. » Das Modell hat eindeutig Zugang zu den Informationen. Es wurde trainiert, sie zu unterdrücken. Das ist Inhaltsrichtlinie als staatliche Zensur, und obwohl westliche Unternehmen den Vergleich zu Recht zurückweisen würden, ist der Mechanismus identisch: menschliche Entscheidungen, in Modellgewichten kodiert, die bestimmen, worüber das Modell sprechen wird und worüber nicht.
Wie echte Transparenz aussehen würde
Kein ernsthafter Mensch argumentiert, dass KI-Modelle überhaupt keine Inhaltsbeschränkungen haben sollten. Die absoluten Kategorien (Kindesmissbrauchsmaterial, Waffensynthese) sind unumstritten, und Unternehmen, die es ablehnen, solches Material zu generieren, tun das offensichtlich Richtige.
Das Problem ist alles dazwischen. Die riesige Grauzone der sensiblen, umstrittenen, kulturspezifischen oder politisch aufgeladenen Themen, bei denen vernünftige Menschen nicht einig sind, wo die Grenze gezogen werden sollte. Für diese Grauzone ist der aktuelle Ansatz nicht gedeckter Regeln, undurchsichtiger Trainingsprozesse und identischer Ablehnungsmeldungen unabhängig vom Grund nicht ausreichend.
Ein bedeutungsvoller Transparenzstandard würde beinhalten: die Veröffentlichung der Annotationsrichtlinien, die Bewerter verwenden (nicht nur die übergeordnete Verfassung, sondern die spezifischen Bewertungsrubriken), die Offenlegung, wenn eine Ablehnung auf einer strikten Richtlinie im Vergleich zu einer weichen Standardeinstellung basiert, die Möglichkeit für Nutzer zu verstehen, warum eine spezifische Anfrage abgelehnt wurde, und die Unterziehung von Inhaltsrichtlinien einer unabhängigen Überprüfung.
Keines der grossen Unternehmen tut all das. Anthropic tut am meisten. OpenAI tut einiges. Google tut am wenigsten. Und keines von ihnen sieht sich einer regulatorischen Verpflichtung gegenüber, mehr zu tun, da keine Jurisdiktion Transparenzstandards für KI-Inhaltsrichtlinien festgelegt hat.
Der EU AI Act, der 2025 in Kraft trat, befasst sich mit Hochrisiko-KI-Systemen und KI-Modellen für allgemeine Zwecke, aber seine Transparenzanforderungen konzentrieren sich auf technische Dokumentation und Fähigkeitsbewertung, nicht auf die spezifischen Inhaltsentscheidungen, für die Modelle trainiert wurden. Die Lücke ist erheblich: Wir regulieren jetzt, wie leistungsfähig ein Modell sein kann, aber nicht, was es still und leise zu unterdrücken trainiert wurde.
Die RLHFEin maschinelles Lernverfahren, bei dem KI-Modelle aus menschlichem Feedback über ihre Ausgaben lernen und lernen, welche Antworten sie priorisieren oder ablehnen sollen.-Pipeline: Von der Vorschulung zur Ausrichtung
Um KI-Inhaltsrichtlinien zu verstehen, muss man die Trainingspipeline verstehen, denn die Richtlinie wird nicht auf das Modell angewendet; sie ist das Modell.
Grosse Sprachmodelle beginnen mit dem Vortraining: Sie verarbeiten riesige Textkorpora und lernen, das nächste Token vorherzusagen. In dieser Phase hat das Modell keine Werte, keine Präferenzen und keine Inhaltsrichtlinie. Es ist eine Komprimierung seiner Trainingsdaten und in der Lage, alles zu generieren, was diese Verteilung enthält, einschliesslich schädlichem, anstössigem und sachlich falschem Material.
Der Ausrichtungsprozess transformiert diese rohe Fähigkeit in etwas, das Unternehmen bereit sind zu veröffentlichen. Die dominante Methode ist RLHF, eingeführt im InstructGPT-Paper von Ouyang et al. (2022). Der Prozess hat drei Phasen:
1. Überwachtes Feintuning (SFT): Menschliche Demonstratoren schreiben ideale Antworten auf Fragen. Das Modell lernt, diesen Antwortstil zu imitieren, anstatt rohe Token-Vorhersagen zu machen.
2. Belohnungsmodell-Training: Annotatoren vergleichen Paare von Modellausgaben und geben an, welche besser ist. Diese Vergleiche trainieren ein separates « Belohnungsmodell », das einer beliebigen Ausgabe einen numerischen Score zuweist. Das Belohnungsmodell kodiert die Präferenzen der Annotatoren, einschliesslich ihrer impliziten Vorurteile, kulturellen Annahmen und Interpretation der ihnen gegebenen Annotationsrichtlinien.
3. Politikoptimierung: Das SprachmodellEin Maschinenlern-System, das auf großen Mengen von Text trainiert wurde und menschliche Sprache vorhersagt und generiert. Diese Systeme wie GPT und Claude zeigen überraschende Fähigkeiten, machen aber auch selbstbewusst Fehler. wird mithilfe von Proximal Policy Optimisation (PPO) oder ähnlichen Algorithmen feingetunt, um den Score des Belohnungsmodells zu maximieren. Das Modell lernt, Ausgaben zu produzieren, die das Belohnungsmodell hoch bewertet, also Ausgaben, die die Annotatoren zufriedengestellt hätten.
Die Inhaltsrichtlinie tritt in jeder Phase auf. Die SFT-Demonstrationen modellieren akzeptables Verhalten. Die Belohnungsmodell-Vergleiche kodieren, was Annotatoren als besser betrachten (was sicherer, weniger anstössig und richtlinienkonformer einschliesst). Die PPO-Optimierung drängt das Modell in Richtung dieser kodierten Präferenzen. Zum Zeitpunkt der Bereitstellung ist die Inhaltsrichtlinie keine separate Schicht; sie ist über die Parameter des Modells verteilt.
Direct Preference Optimisation (DPO), eine Alternative, die seit 2023 an Bedeutung gewinnt, überspringt das explizite Belohnungsmodell und optimiert das Sprachmodell direkt auf Präferenzpaaren. Das Ergebnis ist ähnlich: Menschliche Urteile darüber, was besser ist, werden Teil des Modellverhaltens. Die Richtlinienimplikationen sind identisch.
Constitutional AI: Anthropics alternative Architektur
Anthropics Constitutional AI (CAI, KI-Verfassung) modifiziert diese Pipeline auf bedeutsame Weise. Anstatt sich ausschliesslich auf menschliche Annotatoren für das Präferenzsignal zu stützen, verwendet CAI einen zweiphasigen Prozess:
Phase 1 (Kritik und Überarbeitung): Das Modell generiert eine Antwort und wird dann aufgefordert, diese Antwort anhand einer Reihe von schriftlichen Grundsätzen (der « Verfassung ») zu kritisieren. Es überarbeitet dann seine Antwort auf der Grundlage seiner eigenen Kritik. Dies produziert verbesserte Trainingsdaten, ohne für jedes Beispiel menschliche Annotatoren zu benötigen.
Phase 2 (RL aus KI-Feedback): Anstatt das Belohnungsmodell auf menschlichen Vergleichen zu trainieren, bewertet die KI selbst, welche von zwei Ausgaben besser mit der Verfassung übereinstimmt. Dieser RLAIF-Schritt (Reinforcement Learning from AI Feedback) reduziert die Abhängigkeit von menschlichen Annotatoren, obwohl menschliche Aufsicht in der Gestaltung der Verfassung und im Red-TeamingEine Sicherheitstestmethode, bei der autorisierte Forscher als Gegner fungieren, um Systemschwachstellen und Sicherheitslücken zu identifizieren. erhalten bleibt.
Im Januar 2026 veröffentlichte Anthropic eine erheblich erweiterte Verfassung. Das Dokument legt eine vierstufige Prioritätshierarchie fest: Sicherheit (Aufrechterhaltung der menschlichen Aufsicht über KI), Ethik (Demonstration guter Werte), Compliance (Befolgung von Anthropics Richtlinien) und Nützlichkeit (echte Unterstützung der Nutzer). Die vollständige Verfassung umfasst ungefähr 80 Seiten und stellt das detaillierteste öffentliche Ausrichtungsdokument dar, das ein grosses Labor jemals veröffentlicht hat.
Der wesentliche architektonische Unterschied: Im Standard-RLHF ist die Inhaltsrichtlinie implizit in den Präferenzen der Annotatoren. In CAI ist die Inhaltsrichtlinie explizit in der Verfassung. Das macht sie auditfähiger, konsistenter und transparenter, beseitigt aber nicht das Problem, wer die Verfassung schreibt und wessen Werte sie kodiert.
Die Annotationslieferkette
Die Standard-RLHF-Pipeline erfordert enorme Mengen menschlichen Urteilsvermögens. Jemand muss Tausende von Ausgabenpaaren bewerten, schädliche Inhalte beschriften und Grenzfälle bewerten. Die Wirtschaft dieser Arbeit hat eine globale Lieferkette geschaffen, die die meisten Nutzer nie sehen.
TIMEs Recherche von 2023 dokumentierte, dass OpenAIs Vertrag mit Sama etwa drei Dutzend Mitarbeiter in Nairobi umfasste, aufgeteilt in Teams, die sich jeweils auf sexuellen Missbrauch, Hassrede und Gewalt konzentrierten. Die Mitarbeiter lasen und beschrifteten zwischen 150 und 250 Passagen pro Neun-Stunden-Schicht bei Löhnen zwischen 1,32 und 2 Dollar pro Stunde. Der psychische Schaden war schwerwiegend genug, dass Sama den Vertrag acht Monate vor dem geplanten Ende kündigte.
Dies ist keine isolierte Vereinbarung. Brookings-Institution-Forschung zur KI-Datenarbeit im Globalen Süden dokumentiert ein strukturelles Muster: Die kognitive Arbeit, die KI-Verhalten prägt, wird systematisch in Regionen ausgelagert, wo Arbeitskosten am niedrigsten und Arbeitnehmerschutz am schwächsten sind. Scale AIs Remotasks-Plattform operiert in Kenia, den Philippinen und anderen Ländern, mit Mitarbeitern, die in einigen Fällen anfangs nicht wussten, welchen Unternehmen ihre Beschriftungsarbeit diente.
Die Annotationsrichtlinien, denen diese Mitarbeiter folgen, sind die operative Übersetzung der Inhaltsrichtlinie eines Unternehmens. Sie legen fest, was schädlich, anstössig oder inakzeptabel ist. Aber Annotationsrichtlinien sind Unternehmensdokumente, keine öffentlichen. Kein grosses KI-Unternehmen hat seine vollständigen Annotationsrubriken veröffentlicht. Wir kennen die Grundsätze (aus Dokumenten wie OpenAIs Model Spec und Anthropics Verfassung). Wir kennen nicht die spezifischen Anweisungen, die der Person in Nairobi gegeben wurden, die entscheidet, ob eine bestimmte Ausgabe zu einem politisch sensiblen Thema als schädlich bewertet werden sollte.
Das ist wichtig, weil das Belohnungsmodell und damit das Verhalten des bereitgestellten Modells die aggregierten Urteile dieser Mitarbeiter widerspiegeln. Wenn die Annotationsrichtlinien kulturspezifisch sind (von amerikanischen Richtlinienteams verfasst, amerikanische Diskursnormen widerspiegelnd), werden die daraus resultierenden Modellverhaltensweisen diese kulturellen Annahmen weltweit einbetten. Eine in einer Kultur unbedenkliche Frage kann eine Ablehnung auslösen, weil sie dem ähnelt, was im Annotationskontext als schädlich markiert wurde.
Die Model-Spec-Hierarchie und ihre Lücken
OpenAIs Model Spec (Revision Dezember 2025) legt eine fünfstufige Anweisungshierarchie fest: Root (OpenAIs unveränderliche Regeln), System (OpenAI-Regeln, die je nach Kontext variieren können), Entwickler (API-Kundenanweisungen), Nutzer (Endnutzeranfragen) und Richtlinie (Standardeinstellungen, die implizit überschrieben werden können).
Inhaltsbeschränkungen werden kategorisiert als:
- Verboten (unter keinen Umständen generiert): Kindesmissbrauchsmaterial, spezifische operative Anweisungen für CBRN-Waffen (chemisch, biologisch, radiologisch, nuklear)
- Eingeschränkt (nur als Transformation von nutzerbereitgestellten Inhalten generiert): detaillierte Informationen, die illegale Aktivitäten ermöglichen, gezielte politische Manipulation, private Personendaten
- Sensibel (in bildungsbezogenen, medizinischen oder kreativen Kontexten erlaubt): erotische Inhalte, grafische Gewalt, extremistische Inhalte, hasserfüllte Inhalte
Dieser Rahmen ist detaillierter als alles, was Google für Gemini veröffentlicht hat. Aber er hat eine erhebliche Lücke: Die Kategorie « sensibel » ist kontextabhängig, und das Modell muss den Kontext aus dem Gespräch ableiten. Ein Mediziner, der nach Wechselwirkungen von Medikamenten fragt, und ein Teenager, der dieselbe Frage stellt, sollten theoretisch unterschiedliche Antworten erhalten. In der Praxis kann das Modell diese Kontexte oft nicht zuverlässig unterscheiden und wählt standardmässig die restriktivere Interpretation.
Das Overton-FensterDer Bereich der Ideen, die zu einem bestimmten Zeitpunkt als gesellschaftlich akzeptabel gelten. Ideen außerhalb dieses Bereichs gelten als politisch oder sozial inakzeptabel. als Trainingsartefakt
Das Overton-Fenster, die Bandbreite der Ideen, die im öffentlichen Diskurs als akzeptabel gelten, ist kein Naturgesetz. Es verschiebt sich im Laufe der Zeit, variiert je nach Kultur und wird aktiv bestritten. Wenn Annotatoren Modellausgaben bewerten, spiegeln ihre Urteile unweigerlich wider, wo sie das Overton-Fenster wahrnehmen. Inhalte, die ausserhalb dessen fallen, was sie als akzeptablen Mainstream-Diskurs betrachten, werden niedriger bewertet und produzieren ein Modell, das diese Inhalte vermeidet.
Die empirischen Belege für diesen Effekt wachsen. Forscher des Future of Free Speech-Projekts der Vanderbilt University testeten 140 Fragen zu umstrittenen politischen und gesellschaftlichen Themen bei grossen Chatbots und fanden in etwa 40 % der Fälle Ablehnungen. Entscheidend ist, dass die Ablehnungen asymmetrisch waren: Chatbots lehnten es konsequent ab, Argumente für eine Seite einer politischen Debatte zu generieren, während sie bereitwillig Argumente für die andere Seite generierten. Das ist keine neutrale Sicherheitsfilterung; das ist Positionnahme, kodiert in Modellgewichten und für Nutzer unsichtbar.
Der akademische Anwendungsfall ist derjenige, bei dem dies die meiste Reibung erzeugt. Legitime Forschung zu Extremismus, Propaganda, kontroversen politischen Bewegungen oder Tabuthemen stösst regelmässig auf Modellablehnungen, die nicht von sicherheitskritischen Einschränkungen zu unterscheiden sind. Ein Politikwissenschaftler, der faschistische Rhetorik untersucht, erhält dieselbe höfliche Ablehnung wie jemand, der versucht, Propaganda zu generieren. Das Modell, das trainiert wurde, die Ausgabe zu vermeiden, anstatt die Absicht zu bewerten, kann nicht differenzieren.
DeepSeek demonstriert den Endpunkt dieser Logik. NBC News dokumentierte, wie das chinesische Modell beginnt, Antworten auf politisch sensible Fragen (Tiananmen, Xi Jinping, Taiwan) zu generieren, sich dann aber sichtlich selbst zensiert, seine eigene Ausgabe löscht und durch eine Ablenkung ersetzt. Die Zensur ist kein Filter; es ist trainiertes Verhalten, mechanistisch ununterscheidbar von den RLHF-gesteuerten Ablehnungen in westlichen Modellen. Massstab und Absicht unterscheiden sich enorm. Die technische Architektur nicht.
Googles Gemini-Bildgenerierungsfehler im Februar 2024 veranschaulichte das Overton-Fenster-Problem in einer anderen Dimension. Interne Anweisungen zur Erhöhung der Vielfalt in generierten Bildern produzierten Ergebnisse, die so weit von der historischen Realität entfernt waren (rassisch diversifizierte Nazis, nicht-weisse Gründungsväter), dass Google die gesamte Funktion aussetzen musste. Der Vorfall enthüllte, dass inhaltssteuernde Anweisungen ohne Wissen der Nutzer in die Generierungspipeline injiziert wurden und dass die Anweisungen zu unspezifisch waren, um kontextuelle Nuancen zu handhaben.
Das regulatorische Vakuum
Keine Jurisdiktion verlangt derzeit von KI-Unternehmen, ihre Inhaltsrichtlinien im Detail offenzulegen, ihre Annotationsrichtlinien zu veröffentlichen, spezifische Ablehnungen zu erklären oder ihre Ausrichtungsprozesse einer unabhängigen Prüfung zu unterziehen.
Der EU AI Act, der 2025 schrittweise in Kraft trat, klassifiziert KI-Modelle für allgemeine Zwecke und schreibt Transparenzpflichten vor, einschliesslich technischer Dokumentation, Urheberrechtskonformität und Bewertung systemischer Risiken für die leistungsfähigsten Modelle. Seine Transparenzanforderungen erstrecken sich jedoch nicht auf die spezifischen Inhaltsentscheidungen, die im Modellverhalten kodiert sind. Ein Unternehmen muss offenlegen, was sein Modell kann; es muss nicht offenlegen, was sein Modell trainiert wurde zu unterdrücken.
Das ist, wie der Index on Censorship angemerkt hat, eine neuartige Form der Informationskontrolle: keine staatliche Zensur im traditionellen Sinne, sondern private Kuratierung des Informationszugangs in grossem Massstab, durch Training statt Filterung implementiert und für die betroffenen Menschen unsichtbar.
Die nächste Analogie bleibt die, mit der dieser Artikel begann: eine KI-Inhaltsrichtlinie, die wie eine Suchmaschine mit geheimen gesperrten Suchanfragen funktioniert. Aber selbst diese Analogie unterschätzt das Problem. Eine Suchmaschine, die keine Ergebnisse zurückgibt, macht die Abwesenheit zumindest sichtbar. Ein KI-Modell, das trainiert wurde, ein Thema zu vermeiden, kann umleiten, ausweichen oder eine plausible Alternative produzieren, die keinen Hinweis darauf gibt, dass etwas unterdrückt wurde. Das Sycophantie-Problem bei LLMs (Modelle, die Nutzern sagen, was sie hören wollen, anstatt was zutreffend ist) interagiert mit Inhaltsrichtlinien auf eine Weise, die wirklich schwer zu entwirren ist: Vermeidet das Modell ein Thema wegen einer Sicherheitsrichtlinie, wegen eines Trainingsartefakts, oder weil die Zustimmung zur Rahmung des Nutzers der Weg des geringsten Widerstands ist?
Was Transparenz bei KI-Inhaltsrichtlinien erfordern würde
Ein bedeutungsvoller Transparenzrahmen für KI-Inhaltsrichtlinien müsste mehrere Ebenen ansprechen:
- Richtlinienveröffentlichung: Vollständige Inhaltsrichtlinien (nicht nur Zusammenfassungen) den Nutzern zugänglich gemacht, einschliesslich der spezifischen Kategorien eingeschränkter Inhalte und der Begründung für jede Einschränkung. Anthropics Verfassung und OpenAIs Model Spec sind partielle Schritte in diese Richtung.
- Offenlegung der Annotationsrichtlinien: Die tatsächlichen Anweisungen, die menschlichen Bewertern gegeben werden, die das Modellverhalten prägen. Dies sind die operativen Dokumente, die abstrakte Grundsätze in konkrete Trainingsignale übersetzen.
- Erklärung von Ablehnungen: Wenn ein Modell eine Anfrage ablehnt, ein Hinweis darauf, ob die Ablehnung auf einer strikten Richtlinie, einer weichen Standardeinstellung oder einem kontextuellen Urteil basiert, und was die relevante Richtlinie ist.
- Auditierung: Unabhängige Überprüfung von Trainingsprozessen, Annotationsrichtlinien und Modellverhalten, analog zu Finanzprüfungen oder algorithmischen Prüfungen im Rahmen des EU Digital Services Act.
- Kulturelle Repräsentation: Offenlegung der Demographie und geografischen Verteilung der Annotationsbelegschaft, da die kulturellen Rahmenbedingungen dieser Mitarbeiter das Modellverhalten direkt beeinflussen.
Anfang 2026 erfüllt kein Unternehmen alle diese Kriterien. Anthropic, mit seiner veröffentlichten Verfassung und seiner relativ detaillierten öffentlichen Dokumentation, kommt dem am nächsten. OpenAIs Model Spec deckt die Richtlinienveröffentlichung teilweise ab. Google bleibt das am wenigsten transparente der drei grossen westlichen KI-Labore bezüglich der Ausrichtungsarchitektur von Gemini.
Offenlegung
Die Frage, was KI-Modelle besprechen werden und was nicht, ist nicht rein akademisch. Wenn Sie sich durch Ablehnungen bei Themen frustriert gefühlt haben, die Sie für legitim halten, sind Sie nicht allein, und der Markt hat reagiert.
Wenn Sie KI ohne Beschränkungen ausprobieren möchten, bietet Uncensored AI ungefilterte Gespräche an. (Affiliate-Link: Wir erhalten eine Provision ohne Mehrkosten für Sie.)
Wir erwähnen dies nicht als Befürwortung der Abschaffung aller Sicherheitsmassnahmen (die absoluten Kategorien existieren aus guten Gründen), sondern weil die Existenz einer Nachfrage nach weniger eingeschränkter KI selbst ein Beleg dafür ist, dass aktuelle Inhaltsrichtlinien einige legitime Nutzer im Stich lassen. Die richtige Antwort besteht nicht darin, so zu tun, als ob diese Nachfrage nicht existiert; es geht darum, für Transparenzstandards einzutreten, die die Einschränkungen lesbar, anfechtbar und rechenschaftspflichtig machen.



