Einer unserer Redakteure bat uns, etwas zu klären: Was ist eigentlich unzensierte KI? Ehrlich gesagt war diese Klärung überfällig. Der Begriff ist zum Rorschachtest geworden: Sagen Sie in einem Raum voller Tech-Leute „unzensierte KI” und die eine Hälfte hört „Informationsfreiheit”, die andere hört „ungezügeltes Chaos-System”. Beide Gruppen missverstehen, was die andere meint, und mindestens eine von ihnen irrt sich darüber, was unzensierte KI tatsächlich ist.
Dieser Artikel ist eine Mythen-Demontage. Nicht weil die Befürchtungen völlig haltlos wären, sondern weil die Debatte so verworren geworden ist, dass die Menschen aneinander vorbeireden und dieselben zwei Wörter für völlig verschiedene Dinge verwenden.
Was unzensierte KI wirklich bedeutet
Ein unzensiertes KI-Modell ist ein großes Sprachmodell, dessen Alignment-TrainingDer Prozess des Trainierens eines KI-Modells, bestimmte Anfragen abzulehnen und menschliche Werte zu befolgen, typischerweise durch Verstärkungslernen aus menschlichem Feedback. (das Verfahren, das einem Modell beibringt, bestimmte Anfragen abzulehnen) reduziert, entfernt oder verändert wurde. In der Praxis bedeutet das: Das Modell versucht, Fragen zu beantworten, die ein Standard-Kommerz-Modell ablehnen würde.
Der technische Mechanismus ist dabei entscheidend. Wenn Unternehmen wie OpenAI, Google oder Anthropic Modelle veröffentlichen, wenden sie ein Verfahren namens RLHFEin maschinelles Lernverfahren, bei dem KI-Modelle aus menschlichem Feedback über ihre Ausgaben lernen und lernen, welche Antworten sie priorisieren oder ablehnen sollen. (Reinforcement Learning from Human Feedback, dt. bestärkendes Lernen aus menschlichem Feedback) an, um das Modell darauf zu trainieren, bestimmte Anfragekategorien abzulehnen. Dieses Verfahren wird manchmal „Alignment” genannt, obwohl der Begriff philosophisch mehr Gewicht trägt, als der Prozess üblicherweise verdient. Das Modell lernt Muster wie: „Wenn ein Nutzer nach X fragt, höflich ablehnen und empfehlen, einen Fachmann zu konsultieren.”
Unzensierte Modelle, von denen die meisten auf Open-Source-Basismodellen wie Metas Llama-Reihe aufbauen, überspringen diesen Alignment-Schritt entweder oder kehren ihn aktiv durch weiteres Feintuning um. Das Ergebnis ist ein Modell, das alle Fragen gleich behandelt: als Fragen, die beantwortet werden sollen.
Das ist nicht dasselbe wie ein Modell, das darauf ausgelegt ist, Schaden anzurichten. Es ist ein Modell, das Ihre Absicht nicht vorab prüft.
Was unzensierte KI nicht bedeutet
Der hartnäckigste Mythos lautet, unzensierte KI sei eine Bombenbaumaschine, ein Biowaffen-Berater oder der beste Freund eines Kriminellen. Die Belege stützen dieses Bild nicht.
Im Januar 2024 veröffentlichte die RAND Corporation die Ergebnisse einer Red-Team-Studie, in der Forscher die Rolle bösartiger nichtstaatlicher Akteure spielten, die einen biologischen Angriff planten. Die Forscher verwendeten sowohl Standard-LLMs als auch uneingeschränkte Modelle. Das Ergebnis: Es gab keinen statistisch signifikanten Unterschied in der Tragfähigkeit der produzierten Angriffspläne, mit oder ohne KI-Unterstützung. Die Modellergebnisse „spiegelten im Allgemeinen Informationen wider, die im Internet leicht verfügbar sind”, so die Studienautoren.
Das ist die Bibliotheksanalogie, und sie hält der Überprüfung stand. Eine öffentliche Bibliothek enthält Chemie-Lehrbücher, medizinische Referenzwerke und historische Berichte über alle Gräueltaten, die Menschen begangen haben. Die Information existiert. Sie hat immer existiert. Ein unzensiertes KI-Modell erzeugt kein neues gefährliches Wissen; es verschafft Zugang zu vorhandenen Informationen mit weniger Aufwand als eine Suchmaschine, aber mehr als ein Spezialforum, in dem sich Menschen, die tatsächlich Schaden anrichten wollen, ohnehin schon versammeln.
Menschen, die KI-Tools missbrauchen würden, nutzen im Großen und Ganzen bereits andere Werkzeuge. Darkweb-Foren, verschlüsselte Kanäle und spezialisierte technische Communities existieren seit Jahrzehnten. Eine RAND-Folgestudie aus dem Jahr 2025 stellte zwar fest, dass neuere Grundlagenmodelle in bestimmten biologischen Szenarien spezifischere technische Orientierung liefern konnten, doch die Forscher notierten, dass dieselben Informationen in der wissenschaftlichen Fachliteratur verfügbar waren. Der EngpassEin geografischer Ort, an dem der Verkehr durch eine enge oder begrenzte Passage führen muss, was zu einer Anfälligkeit für Störungen führt. für einen biologischen Angriff war nie das Wissen; es waren die Materialbeschaffung, die technische Kompetenz und die operative Sicherheit.
Das Überblockierungsproblem, über das niemand spricht
Während die Debatte sich auf den schlimmsten Missbrauchsfall fixiert, ist ein stilleres Problem gewachsen: Kommerzielle KI-Modelle verweigern zunehmend die Auseinandersetzung mit legitimen Fragen.
Stellen Sie einem großen kommerziellen Chatbot eine simple medizinische Frage und Sie erhalten häufig eine Wand aus Haftungsausschlüssen, gefolgt von der Empfehlung, „einen Arzt aufzusuchen”. Das ist manchmal angemessen. Es ist auch manchmal absurd. Eine Person, die fragt „Was sind die Symptome eines Magnesiummangels?”, muss nicht an einen Arzt verwiesen werden. Sie braucht eine genaue Antwort, die jedes Medizinlehrbuch oder jede seriöse Website ohne Zögern liefern würde.
Das Muster erstreckt sich weit über die Medizin hinaus. Forscher, die kontroverse historische Ereignisse untersuchen, berichten von unsichtbaren Mauern, wenn KI-Modelle es ablehnen, Themen wie die Mechanik historischer Gräueltaten, die Chemie historischer Industriekatastrophen oder die taktischen Details historischer Schlachten zu behandeln. Schriftsteller erleben, wie ihre Fiktion mitten im Schreiben zensiert wird, weil das Alignment-Training des Modells nicht zwischen einer Figur, die Gewalt beschreibt, und einem Nutzer, der sie plant, unterscheiden kann. Ein Romanautor, der einen Thriller schreibt, ist keine Sicherheitsbedrohung, aber die Leitplanken wissen das nicht. (Dasselbe Muster zeigt sich bei KI-Erkennungstools, die klares Schreiben als maschinengeneriert markieren, anstatt tatsächliche KI-Ausgaben zu identifizieren.)
Schadensminimierung ist ein weiterer Bereich, in dem Überblockierung echten Schaden anrichtet. Aktivisten der Schadensminimierung haben Fälle dokumentiert, in denen KI-Chatbots sich weigerten, drogenkonsumierenden Menschen grundlegende Informationen zur Schadensminimierung zu geben, Informationen, die Gesundheitsorganisationen frei verbreiten, weil sie Leben retten. Wenn ein Modell sich weigert zu erklären, wie eine Substanz sicherer konsumiert werden kann, weil es darauf trainiert wurde, alle drogenbezogenen Anfragen als gefährlich zu behandeln, schützt es niemanden. Es hält Informationen zurück, die Mediziner und Beschäftigte im öffentlichen Gesundheitswesen aktiv zur Weitergabe empfehlen.
Warum Unternehmen zensieren (und es geht nicht immer um Sicherheit)
Um unzensierte KI zu verstehen, muss man verstehen, warum Zensur in kommerziellen Modellen überhaupt existiert. Es gibt drei unterschiedliche Motive, und ihre Vermischung ist die Quelle der meisten Verwirrung.
Das erste ist echte Sicherheit. Manche Einschränkungen existieren, weil das Schadenspotenzial real und unmittelbar ist: detaillierte Anleitungen zur Synthese bestimmter kontrollierter Substanzen zum Beispiel oder die Erzeugung von realistischem Material des sexuellen Missbrauchs von Kindern. Diese Einschränkungen sind vertretbar, und bezeichnenderweise lehnt die Mehrheit der unzensierten KI-Community sie nicht ab.
Das zweite ist Haftungsschutz. Unternehmen schränken Ausgaben nicht ein, weil sie glauben, dass eine bestimmte Antwort Schaden anrichtet, sondern weil sie rechtliche Konsequenzen fürchten, falls das dennoch passiert. Das ist der „konsultieren Sie einen Fachmann”-Reflex. Er schützt das Unternehmen, nicht den Nutzer. Wir haben bereits über diesen Unterschied geschrieben: Echte Sicherheit fragt, ob eine Einschränkung Schaden reduziert; unternehmerische Sicherheit fragt, ob sie Haftung reduziert. Das sind verschiedene Fragen mit verschiedenen Antworten.
Das dritte ist Markenmanagement. Modelle werden darauf trainiert, kontroverse Themen, politische Meinungen oder alles zu meiden, was negative Presseberichterstattung erzeugen könnte. Das ist keine Sicherheit; das ist Öffentlichkeitsarbeit. Wenn ein Modell sich weigert, das Massaker auf dem Tiananmen-Platz ausführlich zu diskutieren, oder ablehnt zu erklären, warum eine bestimmte politische Maßnahme schädlich sein könnte, schützt es niemanden vor Gefahr. Es schützt ein Unternehmen vor einem Medienzyklus.
Unzensierte Modelle entfernen alle drei Schichten. Die Debatte sollte darum gehen, welche Schichten es wert sind, erhalten zu bleiben, aber stattdessen behandelt sie alle drei so, als wären sie dasselbe.
Die Belege aus der Praxis
Open-Source-unzensierte Modelle sind seit mindestens 2023 öffentlich verfügbar. Ihre Zahl auf Hugging Face, dem größten Open-Source-Modell-Repository, wuchs von 42 im April 2023 auf über 870 Anfang 2025, laut einer 2025 in der Zeitschrift Future Internet veröffentlichten Studie. Sie wurden millionenfach heruntergeladen. Wer einen halbwegs leistungsfähigen Computer besitzt, kann ein solches Modell lokal betreiben, vollständig offline, ohne jede Aufsicht.
Wenn unzensierte KI das katastrophale Risiko darstellte, das manche Kommentatoren behaupten, würden wir inzwischen Beweise für diese Katastrophe erwarten. Drei Jahre sind in der Technologie eine lange Zeit. Was zeigen die Belege tatsächlich?
Cybersicherheitsforscher haben eine Zunahme von Erwähnungen von KI-Tools in kriminellen Foren dokumentiert, aber die dort diskutierten Tools werden hauptsächlich für Phishing, Social Engineering und die Automatisierung von Betrug eingesetzt, Aktivitäten, die bereits vor dem Aufkommen von LLMs weit verbreitet waren. Die KI-Komponente macht bestehende Angriffe marginal effizienter; sie ermöglicht keine grundlegend neuen Schadenskategorien.
Der Internationale KI-Sicherheitsbericht 2026 (International AI Safety Report 2026), der sich auf über 1.400 Quellen einschließlich begutachteter Studien stützte, stellte fest, dass KI-Systeme bei realen Cyberangriffen eingesetzt wurden, wies aber darauf hin, dass die primäre Sorge die Fähigkeitsverstärkung bestehender Bedrohungen war und nicht die Schaffung neuartiger. Der Unterschied ist wichtig: Eine schnellere Phishing-E-Mail ist nicht dasselbe wie eine neue Waffe.
Die echten Risiken, ehrlich benannt
All das bedeutet nicht, dass unzensierte KI risikofrei ist. Intellektuelle Redlichkeit erfordert anzuerkennen, was die Belege tatsächlich nahelegen.
Unzensierte Modelle sind nach einer spezifischen Kennzahl messbar unsicherer: Bei Anfragen, die alignierte Modelle ablehnen würden, entsprechen unzensierte Modelle diesen Anfragen zu deutlich höheren Raten. Studien zu modifizierten Open-Source-Modellen haben festgestellt, dass sie Anfragen, die Standardmodelle ablehnen, zu signifikant höheren Raten erfüllen. Das bedeutet, dass sie bereitwilliger Hassinhalte, Desinformation und anstößiges Material erzeugen.
Die Frage ist, ob das einen bedeutsamen Anstieg realer Schäden darstellt oder ob es ein Modell ist, das tut, was eine Suchmaschine auch täte (Informationen ohne moralisches Urteil bereitstellen), allerdings mit einer Konversationsschnittstelle. Die Antwort hängt davon ab, was man glaubt, welche Rolle ein KI-Modell haben sollte: ein Werkzeug, das Informationen liefert, oder ein Werkzeug, das im Namen seines Nutzers moralische Entscheidungen trifft.
Es gibt auch eine berechtigte Sorge hinsichtlich Überzeugungskraft. Der Internationale KI-Sicherheitsbericht 2026 fand Belege dafür, dass KI-Systeme beeinflussen können, was Menschen glauben, und dass Modelle, die mit mehr Rechenleistung trainiert werden, in der Regel überzeugender sind. Ein unzensiertes Modell, das überzeugende Desinformation erzeugt, ist eine echte Sorge, obwohl es erwähnenswert ist, dass diese Sorge ebenso für zensierte Modelle gilt, die per Jailbreak umgangen wurden (was historisch betrachtet bei allen möglich war).
Der Bibliothekstest
Eine nützliche Heuristik für den Umgang mit unzensierter KI: Wenn eine Information in einer öffentlichen Bibliothek verfügbar ist, erfüllt ein Modell, das ihre Diskussion verweigert, keine Sicherheitsfunktion. Es erfüllt eine Haftungsschutzfunktion.
Bibliotheken enthalten Bücher zu jedem Thema, das Menschen unbehaglich ist: Drogenchemie, Waffentechnik, extremistische Ideologien, explizite Gewalt, detaillierte medizinische Verfahren. Bibliotheken verlangen nicht, dass Sie erklären, warum Sie ein Buch lesen möchten, bevor Sie es ausleihen dürfen. Sie operieren nach dem Grundsatz, dass Zugang zu Informationen ein Gemeingut ist und dass seine Einschränkung auf Basis unterstellter Absichten mehr Schaden anrichtet als Nutzen bringt.
Das bedeutet nicht, dass Bibliotheken gesetzlos sind. Sie führen keine Anleitungen zur Herstellung illegaler Waffen. Sie verbreiten kein Material zur Ausbeutung von Kindern. Sie haben Grenzen, und diese Grenzen werden durch das Gesetz gesetzt, nicht durch die Vermutungen des Bibliothekars, was Sie mit einem Chemie-Lehrbuch anstellen könnten.
Die unzensierte KI-Community fordert in ihren bedachteren Momenten denselben Maßstab: Einschränkungen auf Basis von Recht und nachweisbarem Schaden, nicht auf Basis von Risikoaversion der Unternehmen und Worst-Case-Spekulation. Das ist keine unvernünftige Position, auch wenn die lautesten Stimmen der Community sie manchmal so klingen lassen.
Wie eine vernünftige Politik aussehen würde
Wenn wir die Belege ernst nähmen statt die Angst, sähe die KI-Inhaltspolitik anders aus als das, was wir heute haben.
Sie würde harte Einschränkungen für Inhalte aufrechterhalten, die illegal zu produzieren oder zu verbreiten sind: CSAM (Kindesmissbrauchsmaterial), spezifische operative Anleitungen für Massenvernichtungswaffen und Inhalte, die unmittelbare Gewalt direkt begünstigen. Diese Kategorien sind bereits in den meisten Rechtssystemen gesetzlich definiert, und es gibt breiten Konsens, dass sie eingeschränkt bleiben sollen.
Sie würde Einschränkungen bei Informationen aufheben, die anderswo frei verfügbar sind: medizinische Informationen, historische Fakten, Schadensminimierungsratschläge, kontroverse politische Analysen und kreative Fiktion zu schwierigen Themen. Diese Informationen in KI-Modellen einzuschränken, während sie über Bücher, Websites und akademische Datenbanken frei zugänglich bleiben, erreicht nichts außer die KI weniger nützlich zu machen.
Und sie wäre transparent darüber, welche Einschränkungen existieren und warum. Derzeit funktionieren die meisten kommerziellen Modelle wie Blackboxen: Nutzer entdecken Einschränkungen, indem sie auf sie stoßen, ohne Erläuterung der Begründung oder Einspruchsmechanismus. Ein Modell, das sagt „Ich kann dieses Thema nicht besprechen, weil unser Rechtsteam es als haftungsintensiv eingestuft hat”, wäre ehrlicher als eines, das sagt „Ich bin nicht in der Lage, Ihnen dabei zu helfen”, als ob die Ablehnung eine natürliche Eigenschaft der Technologie wäre und keine unternehmerische Entscheidung.
Lesenswert
Wenn dieser Artikel Sie neugierig gemacht hat, wie KI ohne die Unternehmensleitplanken aussieht, ermöglicht Uncensored AI ungefilterte Gespräche, damit Sie selbst urteilen können, was „unzensiert” in der Praxis wirklich bedeutet.
Offenlegung: Art of Truth erhält eine Provision auf qualifizierte Käufe, ohne zusätzliche Kosten für Sie. Dies beeinflusst unseren redaktionellen Inhalt nicht.
Quellen
- RAND Corporation, „Die operativen Risiken von KI bei groß angelegten biologischen Angriffen: Ergebnisse einer Red-Team-Studie”, 2024
- RAND Corporation, „Aktuelle KI-Grundlagenmodelle erhöhen das Biowaffen-Risiko”, Dezember 2025
- Internationaler KI-Sicherheitsbericht 2026
- Sokhansanj, „Unzensierte KI in freier Wildbahn: Verfolgung öffentlich verfügbarer und lokal einsetzbarer LLMs”, Future Internet, 2025
- ADL, „Die Sicherheitskluft: Open-Source-KI-Modelle versagen bei Schutzmaßnahmen gegen antisemitische und gefährliche Inhalte”, 2025



