Angela Lipps, eine 50-jährige Großmutter aus Tennessee, hatte nie einen Fuß nach North Dakota gesetzt. Sie war noch nie in einem Flugzeug gesessen, bevor sie ausgeliefert wurde. Im Juli 2025 wurde sie in Tennessee aufgrund eines Haftbefehls aus Fargo verhaftet, mehr als 1.600 Kilometer von zu Hause entfernt, wegen Bankbetrugsvorwürfen in einem Bundesstaat, den sie nach eigener Aussage nie besucht hatte.[s]
Lipps verbrachte mehr als fünf Monate in Haft, zunächst in Tennessee vor ihrer Auslieferung und dann in North Dakota. Ihre Anwälte sagten, Kontoauszüge belegten, dass sie sich während der angeblichen Betrügereien in Tennessee aufgehalten hatte, und dass Beamte nicht nachgeprüft hatten, ob sie nach North Dakota gereist war. Der Fall begann mit einem Hinweis von Clearview AI, einem Gesichtserkennungsunternehmen mit einer Datenbank aus Milliarden von aus dem Internet zusammengetragenen Fotos. Ihre Anwälte beschrieben die Freiheitsentziehung als das, was sie für den längsten KI-bedingten Fall unrechtmäßiger Inhaftierung in der Geschichte der USA halten.[s][s]
Lipps ist eine von mindestens 14 dokumentierten Amerikanern, die nach fehlerhaften Ergebnissen der Gesichtserkennung zu Unrecht verhaftet wurden.[s] Das Muster ist gleichbleibend: Ein Algorithmus liefert einen Hinweis, Beamte überspringen die grundlegende Überprüfung, und ein Mensch verliert Monate oder Jahre seines Lebens. Die Technologie erzeugt das, was man einen „digitalen Zwilling“ nennen könnte: ein statistisches Profil, das Verdächtige in Gerichtssäle und Bewährungsanhörungen verfolgt und dabei oft die eigentlichen Ermittlungen ersetzt, welche die Rechtsstaatlichkeit vorschreibt.
Predictive-Policing-Algorithmen ersetzen Ermittlungen
Das Versprechen von Predictive-Policing-Algorithmen war Effizienz: Computer, die riesige Datensätze verarbeiten, um Muster zu erkennen, die Menschen entgehen würden. Die Realität ist eher eine automatisierte Anklage. Polizeidienststellen im ganzen Land haben KI-gestützte Datenfusionstools übernommen, um Polizei- und Überwachungsdaten zu sammeln und auszuwerten, während algorithmische Systeme auch Gerichtsentscheidungen über Kaution, Strafmaß und Bewährung beeinflussen.[s][s]
Das Brennan Center for Justice hat dokumentiert, wie sich moderne Datenfusionsplattformen grundlegend von traditionellen Polizeidatenbanken unterscheiden. Während ältere Systeme Informationen lieferten, die Beamte selbst auswerten konnten, „generieren die heutigen KI-Tools automatisch Schlussfolgerungen für die Polizei und liefern diese Erkenntnisse ohne Kontext oder Erklärung.“[s] Plattformen wie Cognyte NEXYTE, C3.ai, Peregrine und Flock Safety Nova können Verhaftungsunterlagen, Kennzeichenleserdaten, Social-Media-Inhalte, Schussdetektion und Gesichtserkennung zu einheitlichen Profilen zusammenführen. Fehlverhaftungsfälle zeigen, dass Beamte algorithmische Ergebnisse mitunter als hinreichenden Tatverdacht behandeln, anstatt sie als zu prüfende Hinweise zu verstehen.
Dies stellt einen grundlegenden Wandel dar, wie Schuld festgestellt wird. Die traditionelle Polizeiarbeit verlangte von Beamten, eine Tattheorie zu entwickeln, Beweise zu sammeln und durch Ermittlungen einen hinreichenden Tatverdacht aufzubauen. Predictive-Policing-Algorithmen kehren diesen Prozess um: Das System zieht eine Schlussfolgerung, und die Ermittlung, sofern sie überhaupt stattfindet, arbeitet sich rückwärts, um diese zu rechtfertigen.
Der strukturelle Bias im System
Die Probleme mit diesen Systemen gehen über verfahrenstechnische Abkürzungen hinaus. Die Daten, die Predictive-Policing-Algorithmen speisen, spiegeln Jahrzehnte diskriminierender Strafverfolgung wider. Eine ProPublica-Untersuchung aus dem Jahr 2016 ergab, dass COMPAS, ein weit verbreitetes Risikobewertungstool, Schwarze Angeklagte fast doppelt so häufig fälschlicherweise als zukünftige Kriminelle einstufte wie weiße Angeklagte.[s]
Das Harvard Human Rights Journal erklärte in einer preisgekrönten Analyse aus dem Jahr 2025, warum dieser Bias strukturell und nicht zufällig ist. Versicherungsmathematische Risikobewertungsinstrumente „sind doppelt rassifiziert: Erstens enthalten sie Eingabefaktoren, die auf den Normen der Weißheit beruhen, und zweitens verwenden sie stark rassifizierte Risikofaktoren wie die Vorstrafen.“[s] Wenn Gemeinschaften seit Generationen überproportional polizeilich überwacht wurden, spiegeln ihre Verhaftungsunterlagen diese übermäßige Überwachung wider, nicht höhere tatsächliche Kriminalitätsraten. Auf diesen Daten trainierte Algorithmen lernen, dieselben Gemeinschaften als Hochrisikogruppen zu kennzeichnen, was eine Rückkopplungsschleife erzeugt, die die Ungleichheit vertieft.
Gesichtserkennung verstärkt diese Disparitäten. Die wegweisende Gender-Shades-Studie von 2018 ergab, dass kommerzielle Systeme Fehlerquoten von nur 0,8 % bei hellhäutigen Männern aufwiesen, aber 34,7 % bei dunkelhäutigen Frauen: eine 40-fache Diskrepanz.[s] Wenig überraschend waren die meisten bekannten Fehlverhaftungen durch Gesichtserkennung Schwarze Menschen.[s] Die Technologie behandelt auf Objekte reduzierte Minderheiten in einer Wahrscheinlichkeitsmatrix, ihre individuellen Umstände durch statistische Verallgemeinerungen ausgelöscht.
Rechtsstaatlichkeit im Zeitalter der Algorithmen
Die verfassungsrechtlichen Implikationen sind gravierend. Rechtssysteme, die auf rechtsstaatlichen Garantien aufbauen, erfordern Entscheidungen, die „erklärt, angefochten und begründet werden können“, wie die Rechtswissenschaftlerin Tuğba Tosun Çobanoğlu in JURIST schrieb. Dennoch arbeiten viele Vorhersagesysteme als proprietäre „Black Boxes“, was bedeutet, dass selbst Richter und Angeklagte möglicherweise nicht vollständig verstehen, wie ein bestimmter Risikoscore zustande kam. „Wenn Freiheit auf dem Spiel steht, wird eine solche Undurchsichtigkeit tief problematisch.“[s]
Die Law Society of England and Wales führte eine umfassende Überprüfung algorithmischer Systeme in der Strafjustiz durch und stellte „erhebliche Herausforderungen hinsichtlich Voreingenommenheit und Diskriminierung, Undurchsichtigkeit und Rechtsstaatlichkeit“ fest.[s] Dies sind keine Randfälle oder Umsetzungsfehler. Es sind Merkmale von Systemen, die darauf ausgelegt sind, Schlussfolgerungen zu ziehen, ohne die aufwendige, zeitintensive Arbeit echter Ermittlungen zu leisten.
Das Ergebnis ist, dass „der einzelne Angeklagte vor dem Gesetz weniger eine Person als vielmehr ein Datenpunkt in einem Vorhersagemodell wird.“[s] Dies ist das zentrale philosophische Problem: algorithmische Kontrolle über ihr Schicksal reduziert Angeklagte auf Profile statt auf Personen, auf statistische Wahrscheinlichkeiten statt auf Individuen mit Rechten.
Das regulatorische Vakuum
Polizeidienststellen setzen diese Technologien schneller ein, als Gesetzgeber sie verstehen können. North Dakota, wo Lipps unrechtmäßig festgehalten wurde, hat keine Gesetzgebung zur Regulierung von KI in Polizeiermittlungen. Der Bundesstaat steht für einen „regulatorischen Wilden Westen“, wo „alle möglichen Technologieprodukte mit minimaler Transparenz getestet werden“.[s]
Ian Adams, außerordentlicher Professor für Kriminologie an der University of South Carolina, sagte gegenüber CNN, Polizeidienststellen führten KI „so schnell“ ein, „dass alle Behörden wirklich nur auf Herstellerversprechen angewiesen sind“.[s] Wenn Fehler passieren, umfassen sie in der Regel sowohl technologisches als auch menschliches Versagen: Beamte, die sich auf Computerergebnisse verlassen, anstatt grundlegende Ermittlungen durchzuführen. Im Fall Lipps sagten ihre Anwälte, entlastende Kontoauszüge seien ohne weiteres verfügbar gewesen und KI-Gesichtserkennung sei als Abkürzung für grundlegende Ermittlungen genutzt worden.
Mehr als 20 Städte haben den Einsatz von Gesichtserkennung durch die Polizei vollständig verboten. Detroit erlaubt nach einem wegweisenden Vergleich in einem Fehlverhaftungsfall keine Haftbefehle mehr, die ausschließlich auf Gesichtserkennung und einer Bildvorlage beruhen. Indiana hat ähnliche Schutzmaßnahmen in Staatsrecht verankert.[s] Doch diese bleiben Ausnahmen, und vielen Rechtssystemen fehlen vergleichbare Regelungen.
Wie würde eine Reform aussehen
Die ACLU und Bürgerrechtsgruppen haben Transparenzanforderungen gefordert: öffentliche Inventare von KI-Tools, obligatorische Offenlegung algorithmischer Beweise sowie Verbote, Gesichtserkennung als alleinige Grundlage für eine Verhaftung zu verwenden. Einige Bundesstaaten haben begonnen zu reagieren. Arizona erließ Regeln zur Einschränkung des KI-Einsatzes in Gerichten. Nevada schuf Leitlinien für Richter. Arkansas verbot die Offenlegung von Gerichtsdaten gegenüber generativen KI-Systemen.[s]
Doch Regulierung allein reicht möglicherweise nicht aus. Das Minnesota Journal of Law and Inequality kam zu dem Schluss, dass Anbieter von Predictive Policing „Produkte geschaffen haben, bei denen Diskriminierung ein Merkmal ist, kein Fehler“.[s] Auf voreingenommenen Daten trainierte Systeme werden voreingenommene Ergebnisse produzieren, unabhängig davon, wie sorgfältig sie eingesetzt werden. Die Frage ist, ob die Effizienzgewinne durch Predictive-Policing-Algorithmen die verfassungsrechtlichen Kosten rechtfertigen und ob ein Justizsystem, das Menschen auf Wahrscheinlichkeitswerte reduziert, noch als gerecht bezeichnet werden kann.
Biometric Update berichtete, dass unbezahlte Rechnungen nach Lipps‘ Haft schließlich zum Verlust ihres Hauses, ihres Autos und ihres Hundes führten.[s] Diese fünf Monate wird sie nie zurückbekommen. „Ich werde nie wieder nach North Dakota gehen“, sagte sie nach ihrer Entlassung an Heiligabend gegenüber lokalen Medien.[s] Gesichtserkennung bleibt im Polizeieinsatz, trotz der wachsenden Liste dokumentierter Fehlverhaftungen.[s]
Angela Lipps, eine 50-jährige Einwohnerin von Tennessee, wurde am 14. Juli 2025 in Tennessee aufgrund eines ausstehenden Haftbefehls aus Cass County, North Dakota, verhaftet. Der Haftbefehl, den ein Richter in North Dakota am 1. Juli 2025 unterzeichnete, genehmigte eine landesweite Auslieferung für mehrere Schwerverbrechensanklagen, darunter Diebstahl und unberechtigte Verwendung persönlicher Identifikationsdaten.[s]
Die Anklagen gingen auf Bankbetrugsvorfälle im Raum Fargo zurück. Das Polizeidepartment West Fargo führte Überwachungsbilder durch Clearview AI, ein Gesichtserkennungssystem mit einer Datenbank aus Milliarden von aus sozialen Medien und dem Internet gescrapten Fotos. Clearview „identifizierte einen möglichen Verdächtigen mit ähnlichen Merkmalen wie Angela Lipps“, und West Fargo teilte diesen Bericht mit der Polizei Fargo.[s] Die Anwälte von Lipps sagten, Beamte hätten nicht festgestellt, ob sie nach North Dakota gereist war oder sich zum Zeitpunkt der Bankdiebstähle dort aufgehalten hatte. Kontoauszüge zeigten anschließend, dass sie sich während der angeblichen Betrügereien in Tennessee befunden hatte.
Lipps verbrachte über drei Monate im Gefängnis in Tennessee, bevor sie ausgeliefert wurde, und wurde dann nach North Dakota transportiert: ihr erstes Mal in einem Flugzeug. Am 12. Dezember 2025 informierte das Büro des Staatsanwalts den Fargo-Detektiv, dass die Verteidigung „mögliche entlastende Beweise“ vorgelegt hatte. Die Anklagen wurden am 23. Dezember fallen gelassen, und Lipps wurde an Heiligabend entlassen; Biometric Update berichtete, sie sei mittellos in Fargo gestrandet gewesen, ohne Geld für die Heimreise.[s][s] Ihre Anwälte sind der Ansicht, dies stelle „den längsten KI-bedingten Fall unrechtmäßiger Freiheitsentziehung in der Geschichte der USA“ dar.[s]
Predictive-Policing-Algorithmen: Ausmaß der Verbreitung
Der Fall Lipps verdeutlicht systemische Versäumnisse im wachsenden Bereich KI-gestützter Strafverfolgung. Forscher des Brennan Center berichten, dass Polizeidienststellen im ganzen Land KI-gestützte Datenfusionstools übernommen haben, um Daten zu sammeln und auszuwerten, und dass neuere Systeme auch für weniger gut ausgestattete Dienststellen zugänglich werden.[s]
Die ACLU hat mindestens 14 Fehlverhaftungen dokumentiert, die auf Fehler bei der Gesichtserkennung zurückzuführen sind:
- Nijeer Parks, Woodbridge, New Jersey (Februar 2019)
- Michael Oliver, Detroit, Michigan (Juli 2019)
- Robert Williams, Detroit, Michigan (Januar 2020)
- Christopher Gatlin, St. Louis, Missouri (August 2021)
- Alonzo Sawyer, Maryland (März 2022)
- Randal Quran Reid, Haftbefehl aus Jefferson Parish, Louisiana (November 2022)
- Porcha Woodruff, Detroit, Michigan (Februar 2023)
- Jason Killinger, Reno, Nevada (September 2023)
- Robert Dillion, Jacksonville Beach, Florida (August 2024)
- Javier Lorenzano-Nunez, Phoenix, Arizona (Oktober 2024)
- Trevis Williams, New York City (April 2025)
- Angela Lipps, Haftbefehl aus Fargo, North Dakota (Juli 2025)
- Beau Burgess, Orlando, Florida (August 2025)
- Kimberlee Williams, Haftbefehl aus Maryland (Juni 2021, Fall öffentlich berichtet 2026)
Zu den gemeinsamen Faktoren zählen das Versäumnis der Polizei, Alibis zu überprüfen, die Behandlung algorithmischer Übereinstimmungen als endgültige Erkenntnisse statt als zu prüfende Hinweise sowie die jurisdiktionelle Distanz zwischen dem angeblichen Tatort und dem Wohnort des Beschuldigten.[s]
Technische Architektur von Datenfusionsplattformen
Moderne Predictive-Policing-Algorithmen arbeiten durch Datenfusionsplattformen, die mehrere Überwachungsströme zusammenführen. Das Brennan Center for Justice hob Plattformen hervor, darunter Cognytes NEXYTE „Decision-Intelligence-Plattform“, C3.ais C3 AI Law Enforcement, Peregrines maschinengestützte Datenintegrationsplattform sowie Flock Safetys Nova-Plattform für öffentliche Sicherheit.[s]
Diese Systeme unterscheiden sich grundlegend von traditionellen Polizeidatenbanken. „Während traditionelle Polizeidatenbanken Dienststellen mit Informationen versorgen, die Beamte auswerten können, um eine Theorie zu entwickeln oder eine Schlussfolgerung zu ziehen, generieren die heutigen Datenfusionstools automatisch Schlussfolgerungen für die Polizei und liefern diese Erkenntnisse ohne Kontext oder Erklärung.“[s]
Dateneingaben umfassen typischerweise: Verhaftungsunterlagen, Kennzeichenleserdaten, Gesichtserkennungstreffer, Social-Media-Überwachung, Schussdetektionswarnungen, öffentliche Unterlagen sowie Videoanalysen von Bodycams, Dashcams und stationären Überwachungsnetzwerken. Peregrine behauptet, seine Plattform könne „Daten jeglichen Typs, aus jeder Quelle, in jedem Maßstab integrieren“.[s]
Dokumentierter Bias in algorithmischen Systemen
Die Gender-Shades-Studie von 2018 von Joy Buolamwini (MIT Media Lab) und Timnit Gebru (damals Microsoft Research) testete kommerzielle Gesichtserkennungssysteme und stellte Fehlerquoten von 0,8 % bei hellhäutigen Männern gegenüber 34,7 % bei dunkelhäutigen Frauen fest: eine 40-fache Diskrepanz. Eine NIST-Studie von 2019, die 189 Gesichtserkennungsalgorithmen von 99 Entwicklern untersuchte, ergab, dass afroamerikanische und asiatische Gesichter mit 10- bis 100-facher Wahrscheinlichkeit falsch identifiziert wurden als weiße Männergesichter.[s]
Bei Risikobewertungsinstrumenten ergab die ProPublica-Untersuchung von 2016 über COMPAS, dass die Formel Schwarze Angeklagte fast doppelt so häufig fälschlicherweise als zukünftige Kriminelle einstufte wie weiße. ProPublica berichtete auch, dass Schwarze Angeklagte nach Kontrolle für Vorstrafen, Rückfälligkeit, Alter und Geschlecht noch immer mit höherer Wahrscheinlichkeit als Hochrisikopersonen eingestuft wurden.[s]
Die Analyse des Harvard Human Rights Journal von 2025 identifizierte zwei Quellen rassistischer Voreingenommenheit in versicherungsmathematischen Risikobewertungsinstrumenten (ARAIs): „Erstens enthalten sie Eingabefaktoren, die auf den Normen der Weißheit beruhen, und zweitens verwenden sie stark rassifizierte Risikofaktoren wie Vorstrafen.“ Das Ergebnis: „dem Anschein nach neutrale Risikofaktoren werden zu gefährlichen Ersatzindikatoren für Rasse.“[s]
Dieser Bias hat operative Konsequenzen. ARAIs „untergraben das Recht auf Freiheit, indem sie unbestimmte Haftstrafen für als Hochrisiko eingestufte Personen rechtfertigen“, wobei Minderheiten „verstärkter Überwachung, härteren Strafen und geringerer Wahrscheinlichkeit von Bewährung oder Kaution ausgesetzt sind, was zu weitaus stärkerem Freiheitsentzug führt.“[s] Der Algorithmus funktioniert wie eine moderne Form von Eigentumseinziehung ohne Strafanklagen, bei der Freiheit statt Vermögen auf probabilistischer Grundlage entzogen wird.
Präventive Strafverfolgung und verfassungsrechtliche Implikationen
Jenseits reaktiver Gesichtserkennung werden Predictive-Policing-Algorithmen für vorausschauende Überwachung eingesetzt. Ein Bericht der Brookings Institution dokumentierte einen Fall in Florida, wo ein Minderjähriger „von Strafverfolgungsbehörden verfolgt wurde, weil ein Algorithmus zu dem Schluss gekommen war, dass er wahrscheinlich gegen das Gesetz verstoßen würde.“ Obwohl er kein schweres Vergehen begangen hatte, „begannen Beamte, ohne Vorankündigung das Haus seiner Eltern aufzusuchen, um ihn zu befragen, und erschienen gelegentlich mehrmals täglich.“ Die Familie zog schließlich weg, um der Belästigung zu entgehen.[s]
Das Minnesota Journal of Law and Inequality stellte fest, dass Anbieter von Predictive Policing „Produkte geschaffen haben, bei denen Diskriminierung ein Merkmal ist, kein Fehler.“[s] Auf historischen Verhaftungsdaten aus überproportional überwachten Gemeinschaften trainierte Systeme werden diese Gemeinschaften für künftige Polizeimaßnahmen markieren, was neue Verhaftungen erzeugt, die den Algorithmus noch stärker auf dieselben Gemeinschaften ausrichten.
Automatisierungsbias und Ermittlungsabkürzungen
Ein wesentlicher Faktor bei Fehlverhaftungen ist der „Automatisierungsbias“: die dokumentierte Tendenz menschlicher Bediener, Computerergebnissen zu vertrauen. Untersuchungen zeigen, dass Fingerabdruckexperten durch die Reihenfolge beeinflusst wurden, in der Computersysteme potenzielle Übereinstimmungen präsentierten. In Gesichtserkennungsfällen haben Polizisten algorithmische Ergebnisse als „100-prozentige Übereinstimmung“ behandelt oder Software genutzt, um Verdächtige „sofort und fraglos“ zu identifizieren, obwohl Richtlinienhinweise warnten, dass solche Ergebnisse einer unabhängigen Überprüfung bedürfen.[s]
Im Fall Lipps räumte Fargo-Polizeichef Dave Zibolski ein, dass seine Dienststelle unwissentlich auf West Fargos Clearview-AI-System angewiesen war und „dessen Einsatz nicht erlaubt hätte“. Die Dienststelle hat seitdem den Einsatz von West Fargos KI-System verboten und monatliche Überprüfungen aller Gesichtserkennungsidentifizierungen zugesagt.[s]
Rechtsstaatlichkeit und Menschenwürde
Die Law Society of England and Wales überprüfte algorithmische Systeme in der Strafjustiz und stellte „erhebliche Herausforderungen hinsichtlich Voreingenommenheit und Diskriminierung, Undurchsichtigkeit und Rechtsstaatlichkeit“ fest.[s]
Der JURIST-Kommentar identifizierte die zentrale verfassungsrechtliche Spannung: „Viele Vorhersagesysteme arbeiten als proprietäre ‚Black Boxes‘, was bedeutet, dass selbst Richter und Angeklagte möglicherweise nicht vollständig verstehen, wie ein bestimmter Risikoscore zustande kam. Wenn Freiheit auf dem Spiel steht, wird eine solche Undurchsichtigkeit tief problematisch.“[s]
Das Ergebnis reduziert Angeklagte auf Datenpunkte in Vorhersagemodellen. Durch algorithmische Kontrolle über ihr Schicksal werden Individuen nicht „in erster Linie auf der Grundlage ihrer persönlichen Handlungen beurteilt, sondern anhand von Mustern, die aus großen Datensätzen abgeleitet werden.“[s] Dies konstituiert das, was Rechtswissenschaftler als auf Objekte reduzierte Minderheiten statistischer Verwaltung beschreiben, anstatt als Rechtssubjekte.
Aktuelles Regulierungsumfeld
North Dakota hat keine Gesetzgebung zur Regulierung von KI in Polizeiermittlungen.[s] Dieses regulatorische Vakuum ist auf nationaler Ebene weit verbreitet.
Einige Rechtssysteme haben gehandelt:
- Mehr als 20 Städte haben die polizeiliche Gesichtserkennung vollständig verboten
- Detroit verbietet Haftbefehle, die ausschließlich auf Gesichtserkennung und Bildvorlage basieren (Vergleich im Fall Robert Williams)
- Indiana hat gesetzliche Schutzmaßnahmen gegen ausschließlich auf Gesichtserkennung gestützte Haftbefehle erlassen
- Arizona erließ Regeln zur Einschränkung des KI-Einsatzes in Gerichten (2024)
- Nevada schuf KI-Leitlinien für Richter (2025)
- Arkansas verbot die Offenlegung von Gerichtsdaten gegenüber generativer KI (2025)
- Kerala, Indien, verbot Richtern den Einsatz von KI für Entscheidungsfindung oder rechtliche Argumentation
Die Bundesregierung hat ähnliche KI-Tools als solche eingestuft, die „erhebliche Auswirkungen auf bürgerliche Rechte, bürgerliche Freiheiten und Datenschutz“ haben und Schutzmaßnahmen einschließlich Schulungen, Vorabtests, Folgenabschätzungen und laufender Überwachung erfordern.[s]
Die grundlegende Frage
Ob die Effizienzgewinne durch Predictive-Policing-Algorithmen ihre verfassungsrechtlichen Kosten rechtfertigen, bleibt ungeklärt. Unabhängige Studien, die bewerten, ob diese Tools messbar zur öffentlichen Sicherheit beitragen, sind selten.[s] Dokumentiert ist ein Muster von Fehlverhaftungen, voreingenommenen Ergebnissen und Undurchsichtigkeit, das das individualisierte Urteil untergräbt, das die Rechtsstaatlichkeit erfordert.
Die Anwälte von Angela Lipps erklärten: „Beamte wussten, dass Angela eine Einwohnerin von Tennessee war, und wir haben keine Ermittlungen von Beamten gesehen, um festzustellen, ob sie nach North Dakota gereist war oder sich zum Zeitpunkt der Bankdiebstähle dort aufgehalten hatte. Stattdessen nutzte ein Beamter KI-Gesichtserkennung als Abkürzung für grundlegende Ermittlungen, was dazu führte, dass eine unschuldige Frau festgehalten und quer durchs Land transportiert wurde, um Anklagen zu begegnen, mit denen sie nichts zu tun hatte.“[s]
Die Polizei Fargo hat keine direkte Entschuldigung ausgesprochen. Der Fall bleibt „offen und aktiv“, mit der Möglichkeit, dass Anklagen „erneut erhoben werden könnten, wenn zusätzliche Ermittlungen dies stützen“.[s] Biometric Update berichtete, dass unbezahlte Rechnungen nach ihrer Haft schließlich zum Verlust ihres Hauses, ihres Autos und ihres Hundes führten.[s] Sie prüft bürgerrechtliche Klagen, hat aber noch keine Klage eingereicht. Gesichtserkennungstechnologie bleibt trotz der dokumentierten Fehlverhaftungsfälle im Polizeieinsatz.[s]



