Die Erkennung von Menschenhandel hat ein Problem, das kein Algorithmus lösen kann: Die Menschen, die am wahrscheinlichsten Opfer werden, sind genau die, die Maschinen am wenigsten wahrnehmen. Trotz Milliardeninvestitionen in künstliche Intelligenz und Mustererkennungssysteme erfassen offizielle Statistiken in manchen Regionen nur bis zu 6 Prozent der tatsächlichen Opfer von Menschenhandel[s]. Die Kluft zwischen technologischem Versprechen und ermittlerischer Realität war noch nie so groß.
Die Internationale Arbeitsorganisation schätzt, dass 2021 an jedem beliebigen Tag 27,6 Millionen Menschen in Zwangsarbeit gefangen waren und damit jährlich 236 Milliarden US-Dollar an illegalen Gewinnen generierten[s]. Diese Zahl ist seit 2014 um 37 Prozent gestiegen – und das, obwohl KI-Tools immer ausgefeilter werden. Die Systeme, die Opfer aufspüren sollen, versagen im großen Stil.
Erkennung von Menschenhandel und das Bias-Problem
KI-Tools werden mit Daten trainiert, die historische Machtungleichgewichte widerspiegeln. Gesichtserkennungsdatensätze sind überproportional mit weißen, männlichen Gesichtern besetzt, da sie sich an öffentlichen Personen und Medienberichten orientieren[s]. Das Ergebnis: Systeme, die bei den Bevölkerungsgruppen am schlechtesten funktionieren, die am stärksten von Menschenhandel bedroht sind.
Forschungen bestätigen dieses Muster. KI-Systeme sind voreingenommen zugunsten von weißen, konventionell attraktiven, geschlechterbinär auftretenden Personen, weil diese in öffentlich zugänglichen Daten dominieren[s]. Marginalisierte Gruppen, die die Mehrheit der Opfer von Menschenhandel ausmachen, sind genau die Menschen, die KI am wenigsten zuverlässig identifiziert. Die Erkennung von Menschenhandel scheitert genau dort, wo sie am dringendsten benötigt wird.
Die digitalen Geister
Es gibt einen grundlegenden Fehler in der Nutzung von KI zur Suche nach Opfern von Menschenhandel im Internet. Menschenhändler löschen gezielt die digitale Präsenz ihrer Opfer. Sie konfiszieren Telefone und Dokumente, isolieren die Opfer von Familie und Freunden und sorgen dafür, dass sie keine Spuren hinterlassen, die Algorithmen finden könnten[s]. Diese „digitalen Geister“ haben keine Social-Media-Beiträge zu analysieren, keine Anzeigen zu durchsuchen, keine Muster zu erkennen. Es bringt nichts, KI auf Daten anzuwenden, die nicht existieren.
Gleichzeitig fehlt der Strafverfolgung die Ausbildung, um Fälle manuell zu erkennen. Eine Studie des National Institute of Justice ergab, dass Polizisten in mehreren Bundesstaaten nicht in der Lage waren, Zwangsarbeit zu identifizieren[s]. Die Verbrechen sind komplex; die Opfer wissen oft nicht, dass sie als Opfer von Menschenhandel gelten, und die Taten werden unter völlig anderen Kategorien erfasst.
Wenn Erkennungstools Schaden anrichten
Human Rights Watch warnt davor, dass Überwachungssysteme zur Erkennung von Menschenhandel oft genau den Schaden verursachen, den sie verhindern sollen[s]. Frauen of Color, Migrant:innen und queere Menschen sehen sich unter Regimen, die nicht zwischen einvernehmlicher Sexarbeit unter Erwachsenen und Menschenhandel unterscheiden können, mit Profiling und Verfolgung konfrontiert. Eine Studie aus dem Jahr 2022 ergab, dass Tools zum Durchsuchen von Anzeigen „ineffektiv“ sind und „Schaden verschärfen“, weil Entwickler:innen und die Gemeinschaften, denen sie helfen wollen, nicht auf einer Linie liegen.
Die Datenschutzrisiken sind ebenso gravierend. KI durchsucht Daten aus öffentlichen Quellen, ohne bewerten zu können, welche Informationen vertraulich bleiben sollten[s]. Überlebende, deren Autonomie bereits verletzt wurde, finden ihre Daten an Orten wieder, denen sie nie zugestimmt haben.
Menschenhändler schlagen zurück
Während sich die Erkennungstools weiterentwickeln, tun dies auch die Kriminellen. Menschenhändler nutzen mittlerweile dieselbe KI, die Ermittler:innen gegen sie einsetzen. Sie setzen Übersetzungstools ein, um kulturell nuancierte Anwerbebotschaften in mehreren Sprachen zu verfassen, was ihre Täuschung immer schwerer erkennbar macht[s]. Sie nutzen Deepfakes, KI-generierte Bilder und SprachsyntheseDie künstliche Erzeugung menschlicher Sprache mittels Technologie, die es Computern ermöglicht, Text in gesprochene Worte umzuwandeln oder bestimmte Stimmen nachzuahmen., um vertrauenswürdige Personen zu imitieren. Allein 2024 wurden auf einem einzigen Darknet-Forum über 20.000 KI-generierte Bilder mit kinderpornografischem Material entdeckt.
Das National Center for Missing and Exploited Children meldete für 2024 einen Anstieg der CyberTipline-Meldungen zu generativer KI um 1.325 Prozent[s]. Die Technologie, die Opfer schützen sollte, wird gegen sie eingesetzt.
Was funktionieren würde
Das Problem ist nicht, dass KI nutzlos ist. Das Problem ist, worauf sie abzielt. Aktuelle Systeme konzentrieren sich auf Opfer statt auf Täter:innen, auf Anzeigen statt auf Geldströme, auf Mustererkennung statt auf die Zerschlagung von Netzwerken. Forscher:innen argumentieren, dass die Erkennung von Menschenhandel die Infrastruktur von Menschenhandelsoperationen ins Visier nehmen sollte: Blockchain-Transaktionen, Transportrouten, Unterkünfte und die digitalen Spuren, die Täter:innen nicht vollständig beseitigen können[s].
Die Technologie existiert, um jede Kryptowährungs-Wallet zu verfolgen, die mit einer Menschenhandelsanzeige im offenen oder Darknet verknüpft ist. Doch über die Hälfte der von Tech Against Trafficking katalogisierten KI-Tools war 2024 nicht mehr verfügbar, da die Unternehmen entweder insolvent waren oder die Plattformen nicht mehr unterstützten. Ohne nachhaltige Investitionen in die Erkennung von Menschenhandel, die sich auf Täter:innen statt auf Opfer konzentriert, wird die Lücke nur größer werden.
Systeme zur Erkennung von Menschenhandel versagen in einem Ausmaß, das in keinem anderen Bereich der Strafverfolgung akzeptabel wäre. Eine Studie des National Institute of Justice in drei Bundesstaaten ergab, dass offizielle Statistiken nur 14 bis 18 Prozent der potenziellen Opfer von Menschenhandel erfassen, wobei Polizeiakten speziell nicht mehr als 6 Prozent abdecken[s]. Die Untererfassung resultiert aus drei sich verstärkenden Problemen: mangelnde Ausbildung der Beamten, unzureichende Systeme zur Erfassung von Straftaten und die Komplexität, Gewalt, Betrug oder Zwang nachzuweisen.
Der Bericht der Internationalen Arbeitsorganisation von 2024 beziffert das Ausmaß: 27,6 Millionen Menschen in Zwangsarbeit weltweit, die 236 Milliarden US-Dollar an illegalen Gewinnen generieren[s]. Die Gewinne sind seit 2014 um 37 Prozent gestiegen, wobei der Pro-Opfer-Umsatz inflationsbereinigt von 8.269 auf fast 10.000 US-Dollar anstieg. Sexuelle Ausbeutung macht 73 Prozent der illegalen Gesamtgewinne aus, obwohl sie nur 27 Prozent der Opfer ausmacht – bedingt durch den enormen Unterschied im Pro-Opfer-Umsatz: 27.252 US-Dollar gegenüber 3.687 US-Dollar bei anderen Formen von Zwangsarbeit.
Algorithmusbedingte Verzerrungen in der Erkennung von Menschenhandel
Die Arbeit der MIT-Forscherin Joy Buolamwini zu Verzerrungen in der GesichtserkennungAutomatisierte Identifizierung von Personen durch Analyse ihrer Gesichtsmerkmale in Bildern oder Videos mittels KI-Algorithmen. Ein Treffer gilt als Ermittlungshinweis, nicht als Beweis. hat direkte Auswirkungen auf Ermittlungen im Bereich Menschenhandel. Regierungsdatensätze wie IJB-A waren trotz expliziter Bemühungen um geografische Vielfalt zu mehr als 80 Prozent mit hellhäutigen Personen besetzt[s]. Die Verzerrung pflanzt sich durch mehrere Mechanismen fort: Datensätze öffentlicher Personen erben die „Macht-Schatten“ derjenigen, die politische Ämter innehaben; Medienaufmerksamkeit verzerrt die Verfügbarkeit von Bildern zugunsten bereits sichtbarer Bevölkerungsgruppen; Gesichtserkennungsalgorithmen versagen häufiger bei dunkleren Hauttönen und filtern diese vollständig aus den TrainingsdatenDie Sammlung von Informationen, die verwendet wird, um einem KI-System beizubringen, wie Aufgaben ausgeführt werden, und die Grundlage seines Wissens und seiner Fähigkeiten bildet. heraus.
Das DARPA-Memex-Programm, das über drei Jahre eine der ausgefeiltesten Erkennungspipelines für Menschenhandel entwickelte, räumte dies direkt ein. Die Forscher:innen stellten fest, dass „die automatische Erkennung von Menschenhandel eine wichtige Anwendung von KI für das Gemeinwohl ist“, warnten jedoch gleichzeitig vor dem Einsatz prädiktiver maschineller Lernalgorithmen „ohne angemessene Entzerrung“[s]. Ihr System, das in eine Suchplattform mit über 100 Millionen Anzeigen integriert und von über 200 Strafverfolgungsbehörden genutzt wurde, erforderte umfangreiche nachträgliche Maßnahmen zur Bias-Minderung.
Das Problem der digitalen Geister
Die KI-gestützte Erkennung von Menschenhandel basiert auf einer grundlegenden Annahme: dass Opfer digitale Spuren hinterlassen. Menschenhändler beseitigen diese Spuren systematisch. Sie konfiszieren Elektronikgeräte, kontrollieren alle Kommunikation und trennen die Opfer von jedem Unterstützungsnetzwerk, das ihr Verschwinden bemerken könnte[s]. Die Opfer werden zu „digitalen Geistern“ ohne Fußabdruck, den Algorithmen analysieren könnten.
Die technischen Einschränkungen verschärfen dieses Problem. Ende-zu-Ende-VerschlüsselungEine sichere Kommunikationsmethode, bei der nur die kommunizierenden Parteien die Nachrichten lesen können und Zwischenstellen der Zugriff verwehrt wird., die für legitimen Datenschutz essenziell ist, „vereitelt die Möglichkeit, Gespräche von einem Mobilgerät zum anderen einzusehen; dadurch wird die Untersuchung des Geräts umso wichtiger“[s]. Das NCMEC berichtete, dass die Gesamtzahl der CyberTipline-Meldungen von 36,2 Millionen im Jahr 2023 auf 20,5 Millionen im Jahr 2024 sank – nicht, weil die Verbrechen abnahmen, sondern weil „einige Plattformen nicht mehr so berichten, wie sie sollten“, bedingt durch Verschlüsselung und reduzierte Meldungen[s].
Überwachungssysteme, die Schaden anrichten
Human Rights Watch dokumentierte, wie Tools zur Erkennung von Menschenhandel oft „nicht zwischen einvernehmlicher Sexarbeit unter Erwachsenen und Menschenhandel unterscheiden können“, was zur Überwachung marginalisierter Gemeinschaften führt[s]. Eine Kampagne des Department of Homeland Security wies Hotelmitarbeiter:innen an, „Anzeichen für Menschenhandel“ anhand von Indikatoren wie der Bitte um zusätzliche Handtücher, dem Warten an der Bar oder der Nutzung von Bargeld zu melden. Diese Klischees führen zu einer unverhältnismäßigen Überwachung armer, rassifizierter und transsexueller Sexarbeiter:innen, während gängige Sicherheitstaktiken mit Menschenhandelsindikatoren vermischt werden.
Eine akademische Studie aus dem Jahr 2022 zu Tools zum Durchsuchen von Anzeigen stellte eine „Fehlausrichtung zwischen Entwickler:innen, Nutzer:innen der Plattform und Sexarbeiter:innen, denen sie helfen wollen“ fest und kam zu dem Schluss, dass diese Ansätze „ineffektiv“ sind und „Schaden verschärfen“[s]. Die Systeme sind auf Metriken optimiert, die nicht mit der Identifizierung von Opfern korrelieren.
Das Wettrüsten mit adversarieller KI
Menschenhändler haben KI schneller adaptiert als die Strafverfolgung. Der Trafficking in Persons Report 2025 stellt fest, dass Kriminelle „KI als Waffe einsetzen, um ihre Operationen zu verbessern, indem sie Übersetzungstools nutzen, um kulturell nuancierte Botschaften zu verfassen, die bei Opfern in ihrer Muttersprache Anklang finden“[s]. KI-generierte Deepfakes, synthetische Stimmen und Text-zu-Bild-Tools ermöglichen Sextortion und die Produktion von Kinderpornografie im großen Stil. Allein 2024 wurden auf einem einzigen Darknet-Forum über 20.000 KI-generierte Bilder mit kinderpornografischem Material entdeckt.
Die Daten des NCMEC für 2024 zeigten einen Anstieg der Meldungen zu Kindersexhandel um 55 Prozent im Vergleich zum Vorjahr, während Meldungen zu generativer KI um 1.325 Prozent stiegen[s]. Die Analyse von Thorn wies darauf hin, dass KI-generierte Inhalte „zwar einen kleinen Prozentsatz der Gesamtmeldungen ausmachen, aber ein klares Signal dafür sind, dass KI-generiertes kinderpornografisches Material (AIG-CSAM) zunimmt.“
Fehlallokation von Ressourcen
Daten des Justizministeriums offenbaren ein strukturelles Problem: 75 Prozent der 361 Millionen US-Dollar, die im Haushaltsjahr 2022 zur Bekämpfung von Menschenhandel bereitgestellt wurden, flossen in Opferhilfe[s]. Opferhilfe ist essenziell, doch diese Verteilung folgt einem Drogenbekämpfungsmodell, das nicht übertragbar ist: Im Drogenhandel macht es Sinn, die Nachfrage zu reduzieren (Konsument:innen zu behandeln), weil diese sich bewusst für die Teilnahme entscheiden. Beim Menschenhandel sind die Opfer jedoch das „Produkt“, nicht die Konsument:innen. Die Anwendung von Nachfragereduktionslogik auf Opfer von Menschenhandel ist ein Kategorienfehler.
Tech Against Trafficking katalogisierte über 300 Tools zur Bekämpfung von Menschenhandel, von denen nur etwa 10 Prozent KI nutzten. Stand 2024 war über die Hälfte dieser KI-Tools nicht mehr verfügbar[s]. Ohne nachhaltige staatliche Investitionen verschwinden die vielversprechendsten Technologien. Besonders kritisch ist dies für die Erkennung von Menschenhandel, die dringend verbessert werden muss.
Wo KI funktionieren könnte
Der sinnvollere Einsatz von KI würde sich auf Menschenhändler:innen statt auf Opfer konzentrieren: Blockchain-Analysen von Kryptowährungs-Wallets, die mit Menschenhandelsanzeigen verknüpft sind, die Erkennung von Transportmustern, die Identifizierung von Unterkünften und der „digitale Staub“, den Kriminelle nicht vollständig beseitigen können[s]. Generative KI könnte sogar die Erstellung von Durchsuchungsbefehlen und Vorladungen aus digital gesammelten Beweisen automatisieren, um den Verwaltungsaufwand zu reduzieren und gleichzeitig Bürgerrechte zu schützen.
Die Technologie existiert. Die Finanzierung nicht. Bis sich die Erkennung von Menschenhandel von der Überwachung von Opfern auf die Unterbindung von Täter:innen verlagert, wird die 94-Prozent-Lücke bestehen bleiben.



