Angela Lipps, una abuela de 50 años de Tennessee, nunca había pisado Dakota del Norte. Tampoco había subido a un avión antes de su extradición. En julio de 2025, fue arrestada en Tennessee por una orden de arresto emitida en Fargo, a más de 1,600 kilómetros de su hogar, acusada de fraude bancario en un estado que, según ella, nunca había visitado.[s]
Lipps pasó más de cinco meses en prisión, primero en Tennessee antes de la extradición y luego en Dakota del Norte. Sus abogados señalaron que los registros bancarios demostraban que ella estaba en Tennessee durante los presuntos fraudes y que los agentes no habían investigado si había viajado a Dakota del Norte. El caso comenzó con un informe de Clearview AI, una startup de reconocimiento facial con miles de millones de fotos obtenidas sin consentimiento, y sus abogados describieron la detención como lo que creen es el caso más largo de privación injusta de libertad relacionada con inteligencia artificial en la historia de Estados Unidos.[s][s]
Lipps es una de al menos 14 personas en Estados Unidos que han sido arrestadas injustamente tras la dependencia policial de resultados erróneos de reconocimiento facial.[s] El patrón es constante: un algoritmo genera una pista, los agentes omiten la verificación básica y una persona puede perder meses o años de su vida. La tecnología crea lo que podría llamarse un «gemelo digital», un perfil estadístico que acompaña a los sospechosos en los tribunales y audiencias de libertad condicional, reemplazando a menudo la investigación real que exige el debido proceso.
Los algoritmos de policía predictiva reemplazan la investigación
La promesa de los algoritmos de policía predictiva era la eficiencia: computadoras que procesan vastos conjuntos de datos para identificar patrones que los humanos pasarían por alto. La realidad ha sido algo más cercano a la acusación automatizada. Departamentos de policía en todo el país han adoptado herramientas de fusión de datos impulsadas por inteligencia artificial para compilar y analizar datos policiales y de vigilancia, mientras que los sistemas algorítmicos también influyen en las decisiones judiciales sobre fianza, sentencias y libertad condicional.[s][s]
El Brennan Center for Justice ha documentado cómo las plataformas modernas de fusión de datos difieren fundamentalmente de las bases de datos policiales tradicionales. Mientras que los sistemas antiguos proporcionaban información para que los agentes la evaluaran, las herramientas de inteligencia artificial actuales «generan automáticamente conclusiones para la policía, ofreciendo esas determinaciones sin contexto ni explicación».[s] Plataformas como Cognyte NEXYTE, C3.ai, Peregrine y Flock Safety Nova pueden agregar registros de arrestos, lectores de matrículas, redes sociales, detección de disparos y reconocimiento facial en perfiles unificados. Los casos de arrestos injustos muestran que los agentes pueden tratar la salida algorítmica como causa probable en lugar de una pista que requiere verificación.
Esto representa un cambio fundamental en cómo se establece la culpabilidad. La policía tradicional requería que los agentes desarrollaran una teoría del caso, reunieran pruebas y establecieran la causa probable mediante una investigación. Los algoritmos de policía predictiva invierten este proceso: el sistema genera una conclusión, y la investigación, si es que se realiza, trabaja hacia atrás para justificarla.
El sesgo incorporado en la máquina
Los problemas con estos sistemas van más allá de los atajos procesales. Los datos que alimentan los algoritmos de policía predictiva reflejan décadas de aplicación discriminatoria de la ley. Una investigación de ProPublica de 2016 descubrió que COMPAS, una herramienta de evaluación de riesgos ampliamente utilizada, señalaba erróneamente a los acusados negros como futuros delincuentes a casi el doble de la tasa de los acusados blancos.[s]
El Harvard Human Rights Journal, en un análisis galardonado de 2025, explicó por qué este sesgo es estructural y no incidental. Los instrumentos actuariales de evaluación de riesgos «están doblemente racializados: primero, incluyen factores de entrada basados en las normas de la blancura, y segundo, utilizan factores de riesgo altamente racializados, como el historial delictivo».[s] Cuando las comunidades han sido sobrevigiladas durante generaciones, sus registros de arrestos reflejan esa sobrevigilancia, no tasas más altas de criminalidad real. Los algoritmos entrenados con estos datos aprenden a señalar a esas mismas comunidades como de alto riesgo, creando un círculo vicioso que profundiza la desigualdad.
El reconocimiento facial agrava estas disparidades. El estudio histórico Gender Shades de 2018 encontró que los sistemas comerciales mostraban tasas de error de solo 0.8% para hombres de piel clara, pero de 34.7% para mujeres de piel más oscura, una disparidad de 40 veces.[s] No es sorprendente que la mayoría de los arrestos injustos conocidos por reconocimiento facial hayan sido de personas negras.[s] La tecnología trata a las minorías como objetos en una matriz de probabilidad, borrando sus circunstancias individuales mediante generalizaciones estadísticas.
El debido proceso en la era de los algoritmos
Las implicaciones constitucionales son graves. Los sistemas legales basados en el debido proceso exigen decisiones que puedan «explicarse, impugnarse y justificarse», como escribió la académica legal Tuğba Tosun Çobanoğlu en JURIST. Sin embargo, muchos sistemas predictivos «operan como ‘cajas negras’ propietarias, lo que significa que ni siquiera los jueces y los acusados pueden entender completamente cómo se produjo una puntuación de riesgo en particular. Cuando está en juego la libertad, tal opacidad se vuelve profundamente problemática».[s]
La Law Society of England and Wales realizó una revisión exhaustiva de los sistemas algorítmicos en la justicia penal y encontró «desafíos significativos de sesgo y discriminación, opacidad y debido proceso».[s] Estos no son casos marginales ni fallos de implementación. Son características de sistemas diseñados para generar conclusiones sin el trabajo complicado y lento de una investigación real.
El resultado es que «el acusado individual se convierte menos en una persona ante la ley y más en un dato dentro de un modelo predictivo».[s] Este es el problema filosófico central: el control algorítmico sobre sus destinos reduce a los acusados a perfiles en lugar de personas, a probabilidades estadísticas en lugar de individuos con derechos.
El vacío regulatorio
Los departamentos de policía están implementando estas tecnologías más rápido de lo que los legisladores pueden entenderlas. Dakota del Norte, donde Lipps fue detenida injustamente, no tiene legislación que regule el uso de la inteligencia artificial en las investigaciones policiales. El estado representa un «lejano oeste regulatorio» donde «se están probando todo tipo de productos tecnológicos, con una transparencia mínima».[s]
Ian Adams, profesor asistente de criminología en la Universidad de Carolina del Sur, dijo a CNN que la policía está adoptando la inteligencia artificial «tan rápidamente que las agencias realmente solo pueden confiar en las promesas de los proveedores».[s] Cuando ocurren errores, suelen involucrar tanto fallos tecnológicos como humanos: agentes que se someten a los resultados de las computadoras en lugar de realizar una investigación básica. En el caso de Lipps, sus abogados dijeron que los registros bancarios exculpatorios estaban fácilmente disponibles y que el reconocimiento facial con inteligencia artificial se había utilizado como un atajo para una investigación básica.
Más de 20 ciudades han prohibido por completo el uso policial del reconocimiento facial. Detroit, tras un acuerdo histórico en un caso de arresto injusto, ya no permite órdenes de arresto basadas únicamente en el reconocimiento facial y una rueda de fotos. Indiana ha promulgado protecciones similares en la ley estatal.[s] Pero estas siguen siendo excepciones, y muchas jurisdicciones carecen de normas comparables.
¿Cómo sería una reforma?
La ACLU y grupos de libertades civiles han pedido requisitos de transparencia: inventarios públicos de herramientas de inteligencia artificial, divulgación obligatoria de pruebas algorítmicas y prohibiciones de usar el reconocimiento facial como única base para un arresto. Algunos estados han comenzado a responder. Arizona adoptó normas que limitan el uso de la inteligencia artificial en los tribunales. Nevada creó directrices para funcionarios judiciales. Arkansas prohibió exponer los datos judiciales a sistemas de inteligencia artificial generativa.[s]
Pero la regulación puede no ser suficiente. El Minnesota Journal of Law and Inequality concluyó que los proveedores de policía predictiva «han creado productos en los que la discriminación es una característica, no un error».[s] Los sistemas entrenados con datos sesgados producirán resultados sesgados, independientemente de lo cuidadosamente que se implementen. La pregunta es si las ganancias de eficiencia de los algoritmos de policía predictiva justifican sus costos constitucionales, y si un sistema de justicia que reduce a las personas a puntuaciones de probabilidad aún puede llamarse justo.
Biometric Update informó que las facturas impagas tras la detención de Lipps finalmente llevaron a la pérdida de su casa, su auto y su perro.[s] Ella nunca recuperará esos cinco meses. «Nunca volveré a Dakota del Norte», dijo a los medios locales tras su liberación en Nochebuena.[s] El reconocimiento facial sigue en uso policial a pesar de la creciente lista de arrestos injustos documentados.[s]
Angela Lipps, una residente de Tennessee de 50 años, fue arrestada el 14 de julio de 2025 en Tennessee por una orden de arresto pendiente del condado de Cass, Dakota del Norte. La orden, firmada por un juez de Dakota del Norte el 1 de julio de 2025, autorizaba la extradición a nivel nacional por múltiples cargos de delitos graves, incluyendo robo y uso no autorizado de información personal de identificación.[s]
Los cargos surgieron de incidentes de fraude bancario en el área de Fargo. El Departamento de Policía de West Fargo procesó imágenes de vigilancia a través de Clearview AI, un sistema de reconocimiento facial con una base de datos de miles de millones de fotos obtenidas de redes sociales e internet. Clearview «identificó a una posible sospechosa con rasgos similares a los de Angela Lipps», y West Fargo compartió este informe con la policía de Fargo.[s] Los abogados de Lipps dijeron que los agentes no habían determinado si ella había viajado o estado en Dakota del Norte en el momento de los robos bancarios. Los registros bancarios posteriormente demostraron que ella estaba en Tennessee durante los presuntos fraudes.
Lipps pasó más de tres meses en una cárcel de Tennessee antes de ser extraditada, y luego fue trasladada a Dakota del Norte, su primer viaje en avión. El 12 de diciembre de 2025, la Oficina del Fiscal del Estado informó al detective de Fargo que la defensa había presentado «pruebas potencialmente exculpatorias». Los cargos fueron desestimados el 23 de diciembre, y Lipps fue liberada en Nochebuena; Biometric Update informó que quedó varada en Fargo sin dinero para regresar a casa.[s][s] Sus abogados creen que esto constituye «el caso más largo de detención injusta relacionada con inteligencia artificial en la historia de Estados Unidos».[s]
Algoritmos de policía predictiva: escala de adopción
El caso de Lipps ejemplifica fallos sistémicos en el creciente panorama de la aplicación de la ley asistida por inteligencia artificial. Investigadores del Brennan Center informan que los departamentos de policía en todo el país han adoptado herramientas de fusión de datos impulsadas por inteligencia artificial para compilar y analizar datos, y que los sistemas más nuevos se están volviendo accesibles incluso para departamentos con menos recursos.[s]
La ACLU ha documentado al menos 14 arrestos injustos atribuibles a errores de identificación por reconocimiento facial:
- Nijeer Parks, Woodbridge, Nueva Jersey (febrero de 2019)
- Michael Oliver, Detroit, Michigan (julio de 2019)
- Robert Williams, Detroit, Michigan (enero de 2020)
- Christopher Gatlin, St. Louis, Missouri (agosto de 2021)
- Alonzo Sawyer, Maryland (marzo de 2022)
- Randal Quran Reid, orden de arresto de la parroquia de Jefferson, Luisiana (noviembre de 2022)
- Porcha Woodruff, Detroit, Michigan (febrero de 2023)
- Jason Killinger, Reno, Nevada (septiembre de 2023)
- Robert Dillion, Jacksonville Beach, Florida (agosto de 2024)
- Javier Lorenzano-Nunez, Phoenix, Arizona (octubre de 2024)
- Trevis Williams, Nueva York (abril de 2025)
- Angela Lipps, orden de arresto de Fargo, Dakota del Norte (julio de 2025)
- Beau Burgess, Orlando, Florida (agosto de 2025)
- Kimberlee Williams, orden de arresto de Maryland (junio de 2021, caso reportado públicamente en 2026)
Los factores comunes incluyen la falta de verificación de coartadas por parte de la policía, el tratamiento de las coincidencias algorítmicas como definitivas en lugar de pistas de investigación, y la distancia jurisdiccional entre el presunto delito y la residencia del acusado.[s]
Arquitectura técnica de las plataformas de fusión de datos
Los algoritmos modernos de policía predictiva operan a través de plataformas de fusión de datos que agregan múltiples flujos de vigilancia. El Brennan Center for Justice destacó plataformas como la «plataforma de inteligencia de decisiones» NEXYTE de Cognyte, C3 AI Law Enforcement de C3.ai, la plataforma de integración de datos impulsada por máquinas de Peregrine y la plataforma de seguridad pública Nova de Flock Safety.[s]
Estos sistemas difieren fundamentalmente de las bases de datos policiales tradicionales. «Mientras que las bases de datos policiales tradicionales proporcionan a los departamentos información que los agentes podían evaluar para desarrollar una teoría o llegar a una conclusión, las herramientas de fusión de datos actuales generan automáticamente conclusiones para la policía, ofreciendo esas determinaciones sin contexto ni explicación».[s]
Las entradas de datos típicamente incluyen: registros de arrestos, datos de lectores de matrículas, coincidencias de reconocimiento facial, monitoreo de redes sociales, alertas de detección de disparos, registros públicos y análisis de video de cámaras corporales, cámaras de tablero y redes de vigilancia estacionarias. Peregrine afirma que su plataforma puede «integrar datos de cualquier tipo, de cualquier fuente, a cualquier escala».[s]
Sesgo documentado en los sistemas algorítmicos
El estudio Gender Shades de 2018 de Joy Buolamwini (MIT Media Lab) y Timnit Gebru (entonces en Microsoft Research) probó sistemas comerciales de reconocimiento facial y encontró tasas de error de 0.8% para hombres de piel clara frente a 34.7% para mujeres de piel más oscura, una disparidad de 40 veces. Un estudio del NIST de 2019 sobre 189 algoritmos de reconocimiento facial de 99 desarrolladores encontró que los rostros afroamericanos y asiáticos tenían entre 10 y 100 veces más probabilidades de ser mal identificados que los rostros de hombres blancos.[s]
En cuanto a los instrumentos de evaluación de riesgos, la investigación de ProPublica de 2016 sobre COMPAS descubrió que la fórmula señalaba erróneamente a los acusados negros como futuros delincuentes a casi el doble de la tasa de los acusados blancos. ProPublica también informó que, incluso controlando el historial delictivo, la reincidencia, la edad y el género, los acusados negros seguían teniendo más probabilidades de ser catalogados como de mayor riesgo.[s]
El análisis del Harvard Human Rights Journal de 2025 identificó dos fuentes de sesgo racial en los instrumentos actuariales de evaluación de riesgos (ARAI): «primero, incluyen factores de entrada basados en las normas de la blancura, y segundo, utilizan factores de riesgo altamente racializados, como el historial delictivo». El resultado: «los factores de riesgo aparentemente neutrales se convierten en sustitutos perniciosos de la raza».[s]
Este sesgo tiene consecuencias operativas. Los ARAI «erosionan el derecho a la libertad al justificar sentencias indeterminadas para individuos considerados de alto riesgo», con las minorías sometidas a «mayor vigilancia, sentencias más duras y menor probabilidad de libertad condicional o fianza, lo que resulta en una mayor privación de libertad».[s] El algoritmo funciona como una forma moderna de incautación de bienes sin cargos penales, donde se priva de la libertad en lugar de los activos, sobre bases probabilísticas.
Policía predictiva y implicaciones de la Cuarta Enmienda
Más allá del reconocimiento facial reactivo, los algoritmos de policía predictiva se están implementando para vigilancia prospectiva. Un informe de Brookings Institution documentó un caso en Florida donde un menor fue «acosado por la policía debido a que un algoritmo concluyó que era probable que infringiera la ley». Aunque no había cometido ningún delito grave, «los agentes comenzaron a visitar la casa de sus padres sin aviso para interrogarlo, apareciendo ocasionalmente varias veces al día». La familia finalmente se mudó para escapar del acoso.[s]
El Minnesota Journal of Law and Inequality observó que los proveedores de policía predictiva «han creado productos en los que la discriminación es una característica, no un error».[s] Los sistemas entrenados con datos históricos de arrestos de comunidades sobrevigiladas señalarán a esas comunidades para futuras intervenciones policiales, generando nuevos arrestos que refuerzan aún más el sesgo del algoritmo hacia esas mismas comunidades.
Sesgo de automatización y atajos en la investigación
Un factor significativo en los arrestos injustos es el «sesgo de automatización», la tendencia documentada de los operadores humanos a someterse a los resultados de las computadoras. Investigaciones muestran que los examinadores de huellas dactilares se vieron influenciados por el orden en que los sistemas informáticos presentaban posibles coincidencias. En casos de reconocimiento facial, la policía ha tratado los resultados algorítmicos como «coincidencias del 100%» o ha utilizado el software para «identificar de inmediato y sin cuestionamientos» a los sospechosos, a pesar de las advertencias de las políticas que indican que tales resultados requieren verificación independiente.[s]
En el caso de Lipps, el jefe de policía de Fargo, Dave Zibolski, reconoció que su departamento había confiado sin saberlo en el sistema Clearview AI de West Fargo y «no habría permitido que se utilizara». El departamento ha prohibido desde entonces el uso del sistema de inteligencia artificial de West Fargo y se ha comprometido a revisar mensualmente todas las identificaciones por reconocimiento facial.[s]
Preocupaciones sobre el debido proceso y la dignidad humana
La Law Society of England and Wales revisó los sistemas algorítmicos en la justicia penal y encontró «desafíos significativos de sesgo y discriminación, opacidad y debido proceso».[s]
Un comentario en JURIST identificó la tensión constitucional central: «Muchos sistemas predictivos operan como ‘cajas negras’ propietarias, lo que significa que ni siquiera los jueces y los acusados pueden entender completamente cómo se produjo una puntuación de riesgo en particular. Cuando está en juego la libertad, tal opacidad se vuelve profundamente problemática».[s]
El resultado reduce a los acusados a simples datos dentro de modelos predictivos. A través del control algorítmico sobre sus destinos, los individuos son evaluados no «principalmente sobre la base de sus acciones personales, sino a través de patrones derivados de grandes conjuntos de datos».[s] Esto constituye lo que los académicos legales describen como minorías reducidas a objetos de gestión estadística en lugar de sujetos de derechos.
Panorama regulatorio actual
Dakota del Norte no tiene legislación que regule el uso de la inteligencia artificial en las investigaciones policiales.[s] Este vacío regulatorio es común a nivel nacional.
Algunas jurisdicciones han tomado medidas:
- Más de 20 ciudades han prohibido el reconocimiento facial policial
- Detroit prohíbe órdenes de arresto basadas únicamente en reconocimiento facial más una rueda de fotos (acuerdo en el caso de Robert Williams)
- Indiana promulgó protecciones legales contra órdenes de arresto basadas solo en reconocimiento facial
- Arizona adoptó normas que limitan el uso de inteligencia artificial en los tribunales (2024)
- Nevada creó directrices de inteligencia artificial para funcionarios judiciales (2025)
- Arkansas prohibió exponer datos judiciales a inteligencia artificial generativa (2025)
- Kerala, India, prohibió a los funcionarios judiciales usar inteligencia artificial para la toma de decisiones o el razonamiento legal
El gobierno federal ha categorizado herramientas similares de inteligencia artificial como de «implicaciones significativas para los derechos civiles, las libertades civiles y la privacidad», lo que requiere salvaguardas que incluyen capacitación, pruebas previas a la implementación, evaluaciones de impacto y monitoreo continuo.[s]
La pregunta fundamental
Sigue sin resolverse si las ganancias de eficiencia de los algoritmos de policía predictiva justifican sus costos constitucionales. Son escasos los estudios independientes que evalúan si estas herramientas contribuyen de manera medible a la seguridad pública.[s] Lo que sí está documentado es un patrón de arrestos injustos, resultados sesgados y opacidad que socava el juicio individualizado que exige el debido proceso.
Los abogados de Angela Lipps declararon: «Los agentes sabían que Angela era residente de Tennessee, y no hemos visto ninguna investigación por parte de los agentes para determinar si ella viajó o estuvo en Dakota del Norte en el momento de los robos bancarios. En cambio, un agente utilizó el reconocimiento facial con inteligencia artificial como un atajo para una investigación básica, lo que resultó en que una mujer inocente fuera detenida y trasladada a la mitad del país para responder por cargos con los que no tenía nada que ver».[s]
La policía de Fargo no ha emitido una disculpa directa. El caso sigue «abierto y activo» con la posibilidad de que «los cargos puedan ser presentados nuevamente si una investigación adicional lo respalda».[s] Biometric Update informó que las facturas impagas tras su detención finalmente llevaron a la pérdida de su casa, su auto y su perro.[s] Ella está explorando acciones por derechos civiles, pero aún no ha presentado una demanda. La tecnología de reconocimiento facial sigue en uso en la policía a pesar de los casos documentados de arrestos injustos.[s]



