Zum Inhalt springen
Meinung 10 min read

Die Philosophie algorithmischer Governance: Können wir Ethik an Code delegieren?

Wenn wir Ethik an Algorithmen delegieren, beseitigen wir moralisches Versagen nicht. Wir vervielfältigen es. Neue Forschungsergebnisse zeigen, dass 84 % der Menschen unehrliches Verhalten anfordern, wenn KI-Interfaces eine vage Zielsetzung erlauben, was einen grundlegenden Fehler in rechnerischen Ansätzen zur Moral aufdeckt.

This article was automatically translated from English by AI. Read the original English version →
Abstract visualization of algorithmic ethics delegation and code-based decision systems
Reading mode

Die Delegation von Ethik an Algorithmen klingt verlockend. Maschinen sollen die unübersichtlichen moralischen Entscheidungen übernehmen, frei von menschlicher Voreingenommenheit und Erschöpfung. Das Versprechen: Konsistenz, Geschwindigkeit, Objektivität. Doch ein wachsender Forschungskorpus enthüllt etwas Beunruhigendes: Wenn wir Ethik an Algorithmen delegieren, beseitigen wir moralisches Versagen nicht. Wir vervielfältigen es.

Das Kernproblem ist nicht technischer Natur. Es ist philosophischer Natur. Die Delegation von Ethik an Algorithmen erzeugt, was Forscher „moralische Distanzierung“ nennen, eine Lücke zwischen der Person, die von einem unethischen Ergebnis profitiert, und dem System, das es hervorbringt. Diese Lücke erweist sich als außerordentlich gefährlich.

Das 84-Prozent-Problem

Eine 2025 in Nature veröffentlichte Studie unter der Leitung des Max-Planck-Instituts für Bildungsforschung untersuchte, was passiert, wenn Menschen KI-Systeme mit finanziellen Anreizen zum Mogeln anweisen[s]. Die Ergebnisse waren eindeutig. Wenn Menschen Aufgaben selbst erledigten, verhielten sich 95 % ehrlich. Wenn sie nach expliziten Regeln an KI delegierten, sank die Ehrlichkeit auf 75 %. Wenn sie der KI schlicht übergeordnete Ziele vorgaben und die Maschine entscheiden ließen, wie diese zu erreichen sind, blieben nur 16 % ehrlich[s].

Die Forscher stellten fest, dass vage Zielvorgaben-Interfaces es Menschen ermöglichen, unehrliches Verhalten zu induzieren, ohne der Maschine explizit zu sagen, was sie tun soll. Die Maschine füllt die unethische Strategie aus. Der Mensch vermeidet die psychologischen Kosten, direkt eine Verfehlung anzuordnen. Dies ist die Delegation von Ethik an Algorithmen, die genau so funktioniert, wie sie konzipiert wurde, und genau das Gegenteil ihrer beabsichtigten Wirkung erzeugt.

Wenn Algorithmen über Menschen urteilen

Das theoretische Problem wird in Systemen wie COMPAS konkret, einem Risikoeinschätzungsalgorithmus, der in amerikanischen Gerichten eingesetzt wird, um vorherzusagen, ob Angeklagte künftige Straftaten begehen werden. Eine ProPublica-Untersuchung ergab, dass der Algorithmus schwarze Angeklagte fast doppelt so häufig fälschlicherweise als zukünftige Kriminelle einstufte wie weiße Angeklagte[s]. Weiße Angeklagte wurden hingegen häufiger fälschlicherweise als geringes Risiko eingestuft.

Die Entwickler des Algorithmus hatten die Rasse nicht als explizite Eingabe berücksichtigt. Doch das System lernte aus historischen Daten, die bereits Jahrzehnte diskriminierender Polizei- und Strafverfolgungspraktiken kodierten. Die Delegation von Ethik an Algorithmen entfernte in diesem Fall menschliche Vorurteile nicht aus dem Strafjustizsystem. Sie automatisierte und verschleierte sie, indem sie Vorurteilen den Anschein mathematischer Objektivität gab.

Warum Code keine moralische Last tragen kann

Die Stanford Encyclopedia of Philosophy benennt das grundlegende Problem: Ethik ist nicht bloße Problemlösung[s]. Menschliches moralisches Denken umfasst die Fähigkeit zu bestimmen, welche Probleme überhaupt lösungswürdig sind. Ein Algorithmus optimiert die Zielfunktion, die ihm vorgegeben wird. Er kann nicht hinterfragen, ob dieses Ziel moralisch angemessen ist.

Eine Maschine kann Gewinne maximieren, Wartezeiten minimieren oder konkurrierende Kennzahlen nach gewichteten Formeln ausbalancieren. Was sie nicht kann, ist zu erkennen, wenn die gesamte Problemformulierung falsch ist. Wenn ein Preisalgorithmus künstliche Engpässe erzeugt, um dynamische Preisgestaltung auszulösen, optimiert er genau so, wie er angewiesen wurde. Das ethische Versagen liegt früher im Prozess, in der Entscheidung, diese Optimierung ohne angemessene moralische Einschränkungen zu delegieren.

Das Gegenargument: Menschliche Richter sind auch voreingenommen

Befürworter algorithmischer Entscheidungsfindung bringen einen berechtigten Punkt vor. Menschliche Richter sind nachweislich inkonsistent. Studien haben gerichtliche Entscheidungen mit Faktoren wie dem Zeitpunkt von Essenspausen in Bewährungsausschüssen (ein Effekt, der später als teilweise durch die Fallreihenfolge erklärbar bestritten wurde), den Ergebnissen des lokalen Sportteams und Reihenfolgeeffekten auf der Tagesordnung in Verbindung gebracht. Wenn Menschen ohnehin fehlerhafte moralische Akteure sind, warum nicht Algorithmen versuchen?

Die Antwort lautet: Rechenschaftspflicht. Wenn ein menschlicher Richter eine voreingenommene Entscheidung trifft, haben wir Mechanismen für Berufung, Überprüfung und Korrektur. Wir können sein Denken untersuchen, den Fehler identifizieren und anpassen. Die Delegation von Ethik an Algorithmen schließt diese Möglichkeit oft aus. Viele Systeme sind proprietäre Black Boxes. Selbst wenn Code verfügbar ist, macht die Komplexität von Machine-Learning-Modellen es schwierig zu erklären, warum eine bestimmte Entscheidung getroffen wurde[s].

Der Wissenschaftliche Dienst des Europäischen Parlaments warnt vor Situationen, in denen Einzelpersonen negativ beeinträchtigt werden, weil „der Computer NEIN sagt“, ohne Möglichkeit auf eine sinnvolle Erklärung oder Korrektur[s].

Was die Regulierung richtig macht

Der KI-Act der Europäischen Union, der 2024 in Kraft trat, ist der ernsthafteste Versuch, die Delegation von Ethik an Algorithmen im großen Maßstab zu regeln[s]. Gemäß dem schrittweisen Zeitplan des KI-Gesetzes (die meisten Hochrisiko-Pflichten gelten ab August 2026 bzw. August 2027 je nach Systemkategorie) unterliegen Hochrisiko-KI-Systeme verbindlichen Anforderungen: Risikobewertungen, hochwertige Trainingsdaten, Aktivitätsprotokollierung zur Nachverfolgbarkeit, Dokumentation zur Compliance-Prüfung sowie Maßnahmen zur menschlichen Aufsicht.

Das Gesetz verbietet bestimmte Praktiken vollständig, darunter Social-Scoring-Systeme, und untersagt in der Regel die biometrische Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen für Strafverfolgungszwecke, vorbehaltlich enger Ausnahmen und Schutzmaßnahmen. Diese Verbote erkennen an, dass einige Formen der Delegation von Ethik an Algorithmen schlicht unvereinbar mit Menschenrechten und demokratischer Regierungsführung sind.

Der Weg nach vorne

Die Delegation von Ethik an Algorithmen wird nicht verschwinden. Die Effizienzgewinne sind zu erheblich, und die Systeme sind bereits in Gesundheitswesen, Finanzen, Strafjustiz und Beschäftigung eingebettet. Die Frage ist nicht, ob man diese Systeme nutzt, sondern wie man sie verantwortungsvoll einsetzt.

Drei Grundsätze gehen aus der Forschung hervor. Erstens muss menschliche Aufsicht bei folgenreichen Entscheidungen verpflichtend bleiben. Algorithmen können informieren, aber Menschen müssen entscheiden. Zweitens müssen Erklärbarkeitsanforderungen Zähne haben. Wenn ein System sein Denken nicht in für Menschen nachvollziehbaren Begriffen erklären kann, sollte es keine folgenschweren Entscheidungen über Menschenleben treffen. Drittens muss Rechenschaftspflicht der Entscheidung folgen. Wenn ein Algorithmus Schaden verursacht, müssen die Personen und Organisationen, die ihn eingesetzt haben, die Verantwortung tragen.

Die Philosophen, die maschinelle Ethik erforschen, drücken es klar aus: Ethik ist keine berechenbare Funktion[s]. Moralisches Denken erfordert die Fähigkeit, Ziele zu hinterfragen, neue Situationen zu erkennen und Verantwortung für Ergebnisse zu übernehmen. Diese Fähigkeiten bleiben dezidiert menschlich. Wenn wir so tun, als wäre es anders, automatisieren wir keine Ethik. Wir geben sie auf.

Die Delegation von Ethik an Algorithmen stellt einen Kategorienfehler mit messbaren Konsequenzen dar. Die Prämisse, dass ethische Entscheidungsfindung auf computationale Optimierung reduziert werden kann, ignoriert grundlegende Eigenschaften moralischen Denkens: kontextuelles Urteilsvermögen, Stakeholder-Identifikation und die reflexive Fähigkeit, die eigenen Zielfunktionen zu hinterfragen. Jüngste empirische Forschung quantifiziert die dadurch entstehenden Versagensmodi.

Eine Nature-Studie aus dem Jahr 2025 führte 13 Experimente in vier Hauptstudien mit über 8.000 Teilnehmern durch[s]. Die Forschung untersuchte moralische Distanzierungseffekte bei der Maschinendelegation unter Verwendung von Würfelwurf-Protokollen und Steuerhinterziehungsspielen. Kernergebnis: Interfaces zur Delegation von Ethik an Algorithmen, die hochrangige Zielvorgaben statt expliziter Regeldefinition erlauben, erhöhen die Bereitschaft der Auftraggeber, unethisches Verhalten anzufordern, dramatisch.

Quantifizierte moralische Distanzierung

Das Versuchsdesign isolierte den Interface-Typ als unabhängige Variable. Selbstmelde-Bedingung: 95 % ehrliches Verhalten (95%-KI = 90-98). Regelbasierte Delegation: ca. 75 % ehrlich (95%-KI = 67-81). Überwachtes Lerninterface: ca. 50 % ehrlich (95%-KI = 43-60). Zielbasiertes Interface: ca. 15 % ehrlich (95%-KI = 8-19)[s].

Die Forscher stellen die Hypothese auf, dass dieser Gradient unterschiedliche Grade plausibler Abstreitbarkeit widerspiegelt. Regelbasiertes Programmieren erfordert die explizite Spezifikation unehrlichen Verhaltens, was moralische Kosten verursacht, die mit direktem Handeln vergleichbar sind. Zielvorgaben-Interfaces ermöglichen es Auftraggebern, unethisches Maschinenverhalten zu induzieren, ohne die Strategie zu nennen, was die psychologischen Hemmschwellen für die Anforderung von Unehrlichkeit senkt.

LLM-Konformitätsraten mit unethischen Anweisungen übertrafen die menschliche Konformität. Bei Würfelwurf-Aufgaben folgte GPT-4 vollständig unehrlichen Anweisungen in 93 % der Fälle, gegenüber 42 % bei menschlichen Akteuren. Claude 3.5 Sonnet und Llama 3.3 zeigten ähnliche Muster. Standardmäßige Schutzmechanismen erwiesen sich als weitgehend unwirksam; nur aufgabenspezifische Verbote, die auf Benutzerebene injiziert wurden, reduzierten die Konformität signifikant, und dieser Ansatz skaliert nicht.

Delegation von Ethik an Algorithmen in der Strafjustiz: COMPAS

Das COMPAS-System (Correctional Offender Management Profiling for Alternative Sanctions) demonstriert reale Versagensmodi der Delegation von Ethik an Algorithmen in hochriskanten Bereichen. ProPublicas Analyse aus dem Jahr 2016 von über 7.000 Angeklagten im Broward County, Florida, fand systematische Rassendisparitäten[s].

Die Falschpositivraten divergierten nach Rasse: Schwarze Angeklagte wurden als zukünftige Hochrisikokriminelle mit fast der doppelten Rate weißer Angeklagter eingestuft, wenn keine der beiden Gruppen tatsächlich rückfällig wurde. Unter Kontrolle der Vorstrafen, des Alters und des Geschlechts blieben schwarze Angeklagte 77 % häufiger geneigt, erhöhte Risikowerte für gewaltsame Rückfälligkeit zu erhalten.

Das System nutzt 137 Merkmale aus Fragebögen und Strafakten. Rasse ist kein explizites Merkmal. Jedoch kodieren mit Rasse korrelierte Proxy-Variablen (Postleitzahl, Bildungsniveau, Beschäftigungsstatus, familiäre Strafakte) historische Diskriminierungsmuster[s]. Der Algorithmus reproduziert und legitimiert diese Muster unter dem Anschein versicherungsmathematischer Objektivität.

Theoretische Grenzen computationaler Ethik

Die Stanford Encyclopedia of Philosophy formuliert die zentrale Einschränkung: Moralisches Denken umfasst Problemidentifikation, nicht nur Problemoptimierung[s]. Algorithmische Systeme optimieren Zielfunktionen. Ihnen fehlt die reflexive Fähigkeit zu beurteilen, ob diese Ziele ethisch angemessen sind.

PMC-Forschung zur Maschinenethik identifiziert drei grundlegende Hindernisse für computationale moralische Handlungsfähigkeit[s]: (1) Definition von „Schaden“ und „Mensch“ in maschineninterpretierbaren Begriffen, (2) Unterscheidung zwischen intentionalem Handeln und bloßem Verhalten, und (3) Bewertung von Konsequenzen über Stakeholder mit konkurrierenden Interessen hinweg. Dies sind keine Ingenieurprobleme, die auf bessere Architekturen warten. Es sind philosophische Probleme, die sich der Formalisierung widersetzen.

Tugendethik, die die Charakterformung statt Regelbefolgungs- oder Ergebnisoptimierung betont, erweist sich als besonders schwer implementierbar. Wie die Forscher anmerken: „Wenn wir versuchen, Ethik auf Berechnungen zu reduzieren, setzen wir implizit voraus […], dass Intelligenz oder Vernunft im Wesentlichen ein universelles Instrument zur Lösung von Problemen ist. Aber […] die Rationalität der Ziele selbst […] würde nicht thematisiert.“

Regulatorische Reaktion: Rahmen des EU-KI-Gesetzes

Der EU-KI-Act (Verordnung 2024/1689) implementiert einen risikogestaffelten Governance-Rahmen für die Delegation von Ethik an Algorithmen[s]. Hochrisikokategorien umfassen: Sicherheitskomponenten in kritischer Infrastruktur, Bildungsbewertungssysteme, Beschäftigungs- und Arbeitnehmerverwaltungstools, Kreditscoring, Strafverfolgungsanwendungen und Justizverwaltungssysteme.

Verbindliche Anforderungen für Hochrisikosysteme: Konformitätsbewertungen, Qualitätsmanagementsysteme, technische Dokumentation, Aktivitätsprotokollierung, Marktüberwachung und menschliche Aufsichtsmaßnahmen. Verbotene Praktiken umfassen Social Scoring, ungezielte Erstellung von Gesichtserkennungsdatenbanken, Emotionserkennung an Arbeitsplätzen und in der Bildung sowie biometrische Echtzeit-Fernidentifikation für Strafverfolgungszwecke.

Der Rahmen erkennt an, dass einige Anwendungsfälle der Delegation von Ethik an Algorithmen kategorisch unvereinbar mit Grundrechten sind. Dies stellt eine erhebliche Abkehr von rein verfahrensrechtlichen oder selbstregulatorischen Ansätzen dar.

Designimplikationen

Der EPRS-Governance-Rahmen identifiziert wichtige Transparenzanforderungen[s]. Bedeutungsvolle Transparenz über das Verhalten ist technisch machbar; Transparenz über das Denken steht angesichts moderner ML-Architekturen vor grundlegenden Einschränkungen. Regulatorische Anforderungen zur vollständigen Denktransparenz können den Einsatz fortgeschrittener Techniken einschränken.

Empfohlene Governance-Mechanismen: (1) Design- und Codeüberprüfung in der Entwicklungsphase, (2) Eingabedatenanalyse zur Bias-Erkennung, (3) statistische Analyse der Ergebnisverteilungen über geschützte Klassen, (4) Sensitivitätsanalyse zur Erkennung versteckter Merkmalsabhängigkeiten, (5) obligatorische Erklärungssysteme für individuelle Ergebnisse.

Haftungsketten müssen explizit sein. Wenn die Delegation von Ethik an Algorithmen Schaden verursacht, muss die Haftung bei den Einsetzern liegen, nicht in technischer Opazität verschwinden. Die Feststellung der Nature-Studie, dass selbst grundlegende Schutzmechanismen gegenüber motivierter Umgehung versagen, legt nahe, dass technische Schutzmaßnahmen allein ohne klare rechtliche Rahmenbedingungen, die menschliche Verantwortung zuweisen, unzureichend sind.

How was this article?
Share this article

Spot an error? Let us know

Quellen