La detección de trata de personas enfrenta un problema que ningún algoritmo puede resolver: las personas con mayor riesgo de ser víctimas de trata de personas son precisamente aquellas que las máquinas tienen menos probabilidades de identificar. A pesar de los miles de millones invertidos en sistemas de inteligencia artificial y reconocimiento de patrones, los registros oficiales captan apenas un 6 % de las víctimas reales en algunas jurisdicciones[s]. La brecha entre la promesa tecnológica y la realidad investigativa nunca ha sido tan amplia.
La Organización Internacional del Trabajo estima que 27,6 millones de personas estuvieron atrapadas en trabajo forzado en cualquier día de 2021, generando 236.000 millones de dólares en ganancias ilegalesOperativos de inteligencia desplegados al extranjero bajo identidades falsas sin cobertura diplomática, operando como ciudadanos ordinarios mientras conducen espionaje. anuales[s]. Esa cifra ha aumentado un 37 % desde 2014, incluso mientras las herramientas de inteligencia artificial se vuelven más sofisticadas. Los sistemas diseñados para detectar víctimas están fallando a gran escala.
La detección de trata de personas y el problema del sesgo
Las herramientas de inteligencia artificial se entrenan con datos que reflejan desequilibrios históricos de poder. Los conjuntos de datos de reconocimiento facialIdentificación automatizada de personas mediante el análisis de rasgos faciales en imágenes o vídeos con algoritmos de IA. Una coincidencia es una pista investigativa, no una prueba. sobrerrepresentan rostros blancos y masculinos porque provienen de figuras públicas y cobertura mediática[s]. El resultado: sistemas que funcionan peor en las poblaciones más vulnerables a la trata de personas.
Investigaciones confirman este patrón. Los sistemas de inteligencia artificial están sesgados hacia individuos blancos, de apariencia convencionalmente atractiva y que se ajustan a estereotipos de género binario, porque son quienes dominan los datos públicamente visibles[s]. Los grupos marginados, que constituyen la mayoría de las víctimas de trata de personas, son precisamente aquellos que la inteligencia artificial identifica con menor precisión. La detección de trata de personas falla justo donde más se necesita.
El fantasma digital
Existe un error fundamental al usar inteligencia artificial para rastrear víctimas de trata en línea. Los traficantes borran deliberadamente la presencia digital de sus víctimas. Confiscan teléfonos y documentos, aíslan a las víctimas de familiares y amigos, y se aseguran de que no dejen rastro que los algoritmos puedan encontrar[s]. Estos “fantasmas digitales” no tienen publicaciones en redes sociales para analizar, ni anuncios para rastrear, ni patrones que coincidir. No tiene sentido usar inteligencia artificial para enfocarse en datos que simplemente no existen.
Mientras tanto, las fuerzas del orden carecen de la capacitación para identificar casos de manera manual. Un estudio del Instituto Nacional de Justicia reveló que agentes de múltiples jurisdicciones no lograban reconocer la trata laboral[s]. Los delitos son complejos, las víctimas a menudo desconocen que califican como tales, y los hechos terminan registrados como algo completamente distinto.
Cuando las herramientas de detección causan daño
Human Rights Watch ha advertido que los sistemas de vigilancia diseñados para la detección de trata de personas a menudo generan el daño que supuestamente buscan prevenir[s]. Mujeres de color, migrantes y personas queer enfrentan perfilamiento y persecución bajo regímenes incapaces de distinguir entre trabajo sexual adulto consensuado y trata de personas. Un estudio de 2022 encontró que las herramientas de rastreo de anuncios eran “ineficaces” y “agravaban el daño” debido a la desconexión entre desarrolladores y las comunidades que dicen ayudar.
Los riesgos para la privacidad son igualmente graves. La inteligencia artificial extrae datos de fuentes públicas sin capacidad para evaluar qué información debería permanecer confidencial[s]. Sobrevivientes, cuya autonomía ya ha sido violada, descubren su información en lugares a los que nunca dieron consentimiento.
Los traficantes contraatacan
A medida que evolucionan las herramientas de detección, los criminales también lo hacen. Los traficantes ahora utilizan la misma inteligencia artificial que los investigadores emplean contra ellos. Implementan herramientas de traducción para crear mensajes de reclutamiento culturalmente matizados en múltiples idiomas, haciendo que su engaño sea cada vez más difícil de detectar[s]. Usan deepfakes, imágenes generadas por inteligencia artificial y síntesis de vozLa generación artificial del habla humana usando tecnología, permitiendo a las computadoras convertir texto en palabras habladas o imitar voces específicas. para suplantar a figuras de confianza. En 2024, se descubrieron más de 20.000 imágenes de abuso sexual infantil generadas por inteligencia artificial en un solo foro de la dark webSecciones anonimizadas de Internet accesibles a través de software especializado (como Tor) que oculta la identidad y ubicación del usuario. Aunque existen usos legítimos, alberga mercados ilegales y redes de explotación..
El Centro Nacional para Menores Desaparecidos y Explotados reportó un aumento del 1.325 % en informes de la Línea Cibernética relacionados con inteligencia artificial generativa solo en 2024[s]. La tecnología destinada a salvar víctimas está siendo usada en su contra.
Qué funcionaría
El problema no es que la inteligencia artificial sea inútil. El problema es hacia dónde apunta. Los sistemas actuales se enfocan en las víctimas en lugar de en los perpetradores, en anuncios en lugar de flujos de dinero, en el reconocimiento de patrones en lugar de la disrupción de redes. Investigadores argumentan que la inteligencia artificial debería dirigirse a la infraestructura de las operaciones de trata: transacciones en blockchain, rutas de transporte, instalaciones de alojamiento y el “polvo digitalRastros de actividad digital que los criminales dejan inadvertidamente a pesar de intentar borrar su presencia en línea, útiles para investigaciones policiales.” que los traficantes no pueden eliminar por completo[s].
Existe la tecnología para rastrear cada billetera de criptomonedas vinculada a un anuncio de trata en la web abierta o en la dark web. Pero más de la mitad de las herramientas de inteligencia artificial catalogadas por Tech Against Trafficking ya no estaban disponibles en 2024, ya que sus empresas cerraron o dejaron de apoyar las plataformas. Sin una inversión sostenida en detección de trata de personas que apunte a los perpetradores en lugar de a las víctimas, la brecha solo seguirá creciendo.
Los sistemas de detección de trata de personas fallan a tasas que serían inaceptables en cualquier otro ámbito de aplicación de la ley. Un estudio del Instituto Nacional de Justicia en tres jurisdicciones encontró que los registros oficiales captaban apenas entre el 14 % y el 18 % de las posibles víctimas de trata, mientras que los registros policiales no superaban el 6 %[s]. El subregistro se debe a tres fallas acumulativas: falta de capacitación de los agentes, sistemas de codificación de delitos inadecuados y la complejidad de probar fuerza, fraude o coerción.
El informe de 2024 de la Organización Internacional del Trabajo cuantifica la magnitud: 27,6 millones de personas en trabajo forzado a nivel global, generando 236.000 millones de dólares en ganancias ilegalesOperativos de inteligencia desplegados al extranjero bajo identidades falsas sin cobertura diplomática, operando como ciudadanos ordinarios mientras conducen espionaje.[s]. Las ganancias han aumentado un 37 % desde 2014, con ingresos por víctima que pasaron de 8.269 a casi 10.000 dólares (ajustados por inflación). La explotación sexual representa el 73 % de las ganancias ilegales totales, a pesar de constituir solo el 27 % de las víctimas, debido a la enorme diferencia en ingresos por víctima: 27.252 dólares frente a 3.687 por otras formas de trabajo forzado.
El sesgo algorítmicoCuando los sistemas de aprendizaje automático producen resultados que reflejan o refuerzan los sesgos socioeconómicos, raciales y de género existentes en sus datos de entrenamiento. en la detección de trata de personas
La investigación de Joy Buolamwini sobre el sesgo en el reconocimiento facialIdentificación automatizada de personas mediante el análisis de rasgos faciales en imágenes o vídeos con algoritmos de IA. Una coincidencia es una pista investigativa, no una prueba. tiene implicaciones directas para las investigaciones de trata. Los conjuntos de datos gubernamentales como IJB-A, a pesar de los esfuerzos explícitos por lograr diversidad geográfica, incluían más del 80 % de individuos de piel más clara[s]. El sesgo se propaga a través de múltiples mecanismos: los conjuntos de datos de figuras públicas heredan las “sombras de poder” de quienes ocupan cargos políticos, la atención mediática sesga la disponibilidad de imágenes hacia poblaciones ya visibles, y los algoritmos de detección facial fallan con mayor frecuencia en rostros de piel más oscura, excluyéndolos por completo de los conjuntos de entrenamiento.
El programa Memex de DARPA, que desarrolló uno de los sistemas de detección de trata más sofisticados durante tres años, reconoció esto abiertamente. Los investigadores encontraron que “la detección automática de trata es una aplicación importante de la inteligencia artificial para el bien social” pero también “ofrece lecciones cautelares para implementar algoritmos predictivos de aprendizaje automático sin una adecuada mitigación de sesgos”[s]. Su sistema, integrado en una plataforma de búsqueda con más de 100 millones de anuncios y utilizado por más de 200 agencias de aplicación de la ley, requirió una extensa mitigación de sesgos posterior.
El problema del fantasma digital
La detección de trata de personas mediante inteligencia artificial opera bajo un supuesto fundamental: que las víctimas dejan rastros digitales. Los traficantes eliminan sistemáticamente esos rastros. Confiscan dispositivos electrónicos, controlan toda comunicación y separan a las víctimas de cualquier red de apoyo que pudiera notar su ausencia[s]. Las víctimas se convierten en “fantasmas digitales” sin huella que los algoritmos puedan analizar.
Las limitaciones técnicas agravan este problema. El cifrado de extremo a extremoUn método de comunicación segura donde solo las partes que se comunican pueden leer los mensajes, impidiendo que intermediarios accedan al contenido., esencial para la privacidad legítima, frustra la capacidad de otros para ver las conversaciones desde una plataforma móvil a otra, haciendo que el examen del dispositivo sea aún más vital[s]. El NCMEC reportó que sus informes totales a la Línea Cibernética cayeron de 36,2 millones en 2023 a 20,5 millones en 2024, no porque los delitos disminuyeran, sino porque algunas plataformas no están reportando como deberían debido al cifrado y a la reducción de envíos[s].
Sistemas de vigilancia que causan daño
Human Rights Watch documentó cómo las herramientas de detección de trata de personas a menudo “no logran distinguir entre trabajo sexual adulto consensuado y trata de personas”, lo que lleva a la vigilancia de comunidades marginadas[s]. Una campaña del Departamento de Seguridad Nacional instruyó al personal de hoteles a reportar “señales de trata” basadas en indicadores como solicitar toallas adicionales, esperar en un bar o usar efectivo. Estos estereotipos generan vigilancia desproporcionada de trabajadoras sexuales pobres, racializadas y transgénero, mientras confunden tácticas de seguridad estándar con indicadores de trata.
Un estudio académico de 2022 sobre tecnologías de rastreo de anuncios encontró “desalineación entre desarrolladores, usuarios de la plataforma y trabajadoras sexuales a las que intentan ayudar”, concluyendo que estos enfoques son “ineficaces” y “exacerban el daño”[s]. Los sistemas están optimizados para métricas que no se correlacionan con la identificación de víctimas.
La carrera armamentista de la inteligencia artificial adversarial
Los traficantes han adoptado la inteligencia artificial más rápido que las fuerzas del orden. El Informe sobre Trata de Personas de 2025 señala que los criminales “utilizan la inteligencia artificial como arma para mejorar sus operaciones, usando herramientas de traducción para crear mensajes culturalmente matizados que resuenen con las víctimas en su idioma nativo”[s]. Las herramientas de deepfakes, síntesis de vozLa generación artificial del habla humana usando tecnología, permitiendo a las computadoras convertir texto en palabras habladas o imitar voces específicas. e imágenes generadas por inteligencia artificial permiten la producción de material de explotación sexual infantil y sextorsión a gran escala, con más de 20.000 imágenes de material de abuso sexual infantil generadas por inteligencia artificial descubiertas en un solo foro de la dark webSecciones anonimizadas de Internet accesibles a través de software especializado (como Tor) que oculta la identidad y ubicación del usuario. Aunque existen usos legítimos, alberga mercados ilegales y redes de explotación. en 2024.
Los datos de 2024 del NCMEC mostraron que los informes de trata sexual infantil aumentaron un 55 % interanual, mientras que los informes de inteligencia artificial generativa se dispararon un 1.325 %[s]. El análisis de Thorn señaló que, aunque el contenido generado por inteligencia artificial “sigue siendo un pequeño porcentaje del total de informes, es una señal clara de que el material de abuso sexual infantil generado por inteligencia artificial está en crecimiento”.
Fallo en la asignación de recursos
Datos del Departamento de Justicia revelan un problema estructural: el 75 % de los 361 millones de dólares otorgados en el año fiscal 2022 para combatir la trata se destinaron a servicios para víctimas[s]. Los servicios para víctimas son esenciales, pero esta asignación refleja un modelo de lucha contra el narcotráfico que no es aplicable: en el tráfico de drogas, reducir la demanda (tratando a los consumidores) tiene sentido porque los consumidores eligen participar. En la trata de personas, las víctimas son el “producto”, no el consumidor. Aplicar la lógica de reducción de demanda a las víctimas de trata es un error categórico.
Tech Against Trafficking catalogó más de 300 herramientas para combatir la trata, de las cuales solo alrededor del 10 % utilizaban inteligencia artificial. Para 2024, más de la mitad de esas herramientas de inteligencia artificial ya no estaban disponibles[s]. Sin una inversión gubernamental sostenida, las tecnologías más prometedoras desaparecen.
Dónde podría funcionar la inteligencia artificial
Una aplicación más adecuada de la inteligencia artificial apuntaría a los traficantes en lugar de a las víctimas: análisis de blockchainExamen de transacciones blockchain y patrones de cartera para identificar actividades sospechosas y manipulación del mercado. de billeteras de criptomonedas vinculadas a anuncios de trata, detección de patrones de transporte, identificación de instalaciones de alojamiento y el “polvo digitalRastros de actividad digital que los criminales dejan inadvertidamente a pesar de intentar borrar su presencia en línea, útiles para investigaciones policiales.” que los criminales no pueden eliminar por completo[s]. La inteligencia artificial generativa incluso podría automatizar la creación de órdenes de allanamiento y citaciones a partir de evidencia recolectada digitalmente, reduciendo la carga administrativa mientras se protegen las libertades civiles.
La tecnología existe. El financiamiento, no. Hasta que la detección de trata de personas deje de enfocarse en la vigilancia de víctimas para priorizar la interdicción de perpetradores, la brecha del 94 % persistirá.



