La détection de la traite des êtres humains souffre d’un problème qu’aucun algorithme ne peut résoudre : les personnes les plus susceptibles d’être victimes de la traite des êtres humains sont précisément celles que les machines voient le moins. Malgré des milliards investis dans l’intelligence artificielle et les systèmes de reconnaissance de motifs, les registres officiels ne captent qu’à peine six pour cent des victimes réelles dans certaines juridictions[s]. L’écart entre les promesses technologiques et la réalité des enquêtes n’a jamais été aussi béant.
L’Organisation internationale du Travail estime que vingt-sept millions six cent mille personnes étaient prises au piège du travail forcé un jour donné en 2021, générant 236 milliards de dollars de profits illégauxAgents de renseignement déployés à l'étranger sous de fausses identités sans couverture diplomatique, opérant comme citoyens ordinaires tout en menant l'espionnage. chaque année[s]. Ce chiffre a augmenté de 37% depuis 2014, alors même que les outils d’intelligence artificielle gagnaient en sophistication. Les systèmes conçus pour améliorer la détection de la traite des êtres humains échouent à grande échelle.
La Détection de la Traite des Êtres Humains et le Problème des Biais
Les outils d’intelligence artificielle sont formés sur des données qui reflètent les déséquilibres historiques de pouvoir. Les bases de données de reconnaissance facialeIdentification automatisée des individus par analyse de leurs traits du visage dans des images ou vidéos via des algorithmes d'IA. Un résultat positif constitue une piste, pas une preuve. surreprésentent les visages blancs et masculins, car elles s’appuient sur des personnalités publiques et la couverture médiatique[s]. Résultat : des systèmes qui obtiennent leurs pires performances sur les populations les plus vulnérables face à la traite des êtres humains.
Les recherches confirment ce schéma. Les systèmes d’intelligence artificielle sont biaisés en faveur des individus blancs, conventionnellement attirants et présentant une identité de genre binaire, car ce sont eux qui dominent les données accessibles au public[s]. Les groupes marginalisés, qui constituent la majorité des victimes de la traite des êtres humains, sont précisément ceux que l’intelligence artificielle identifie le moins bien. La détection de la traite des êtres humains échoue là où elle est le plus nécessaire.
Le Fantôme Numérique
Il existe une faille fondamentale dans l’utilisation de l’intelligence artificielle pour repérer les victimes de traite en ligne. Les trafiquants effacent délibérément la présence numérique de leurs victimes; ils confisquent téléphones et documents, isolent les victimes de leur famille et de leurs amis, et veillent à ce qu’elles ne laissent aucune trace que les algorithmes pourraient détecter[s]. Ces « fantômes numériques » n’ont pas de publications sur les réseaux sociaux à analyser, pas d’annonces à extraire, pas de motifs à faire correspondre. Il est inutile de recourir à l’intelligence artificielle pour se concentrer sur des données qui n’existent pas.
Pendant ce temps, les forces de l’ordre manquent de formation pour identifier les cas manuellement. Une étude du National Institute of Justice a révélé que les policiers de plusieurs juridictions étaient incapables de reconnaître le travail forcé[s]. Les crimes sont complexes, les victimes ignorent souvent qu’elles en sont, et les infractions sont enregistrées sous d’autres catégories.
Quand les Outils de Détection Causent du Tort
Human Rights Watch a mis en garde contre le fait que les systèmes de surveillance conçus pour la détection de la traite des êtres humains aggravent souvent les préjudices qu’ils prétendent prévenir[s]. Les femmes racisées, les migrant·e·s et les personnes queer subissent un profilage et des persécutions sous des régimes incapables de distinguer le travail du sexe consenti de la traite. Une étude de 2022 a révélé que les outils d’extraction d’annonces étaient « inefficaces » et « exacerbent les préjudices » en raison d’un désalignement entre les développeurs et les communautés qu’ils prétendent aider.
Les risques pour la vie privée sont tout aussi graves. L’intelligence artificielle extrait des données de sources publiques sans pouvoir évaluer quelles informations devraient rester confidentielles[s]. Les survivant·e·s, dont l’autonomie a déjà été violée, retrouvent leurs informations dans des lieux auxquels ils et elles n’ont jamais consenti.
Les Trafiquants Ripostent
À mesure que les outils de détection évoluent, les criminels en font de même. Les trafiquants utilisent désormais la même intelligence artificielle que les enquêteurs contre eux. Ils déploient des outils de traduction pour rédiger des messages de recrutement culturellement nuancés dans plusieurs langues, rendant leur tromperie de plus en plus difficile à détecter[s]. Ils recourent aux deepfakes, aux images générées par intelligence artificielle et à la synthèse vocaleLa génération artificielle de paroles humaines à l'aide de la technologie, permettant aux ordinateurs de convertir le texte en mots parlés ou d'imiter des voix spécifiques. pour usurper l’identité de figures de confiance. Plus de vingt mille images de matériel pédopornographique générées par intelligence artificielle ont été découvertes sur un seul forum du dark webSections anonymisées d'Internet accessibles via des logiciels spécialisés (comme Tor) qui cachent l'identité et la localisation de l'utilisateur. Bien que des utilisations légitimes existent, il accueille des marchés illégaux et des réseaux d'exploitation. en 2024.
Le National Center for Missing and Exploited Children a signalé une augmentation de 1 325% des signalements via la CyberTipline impliquant de l’intelligence artificielle générative en 2024 seulement[s]. La technologie censée améliorer la détection de la traite des êtres humains est retournée contre les victimes.
Ce Qui Fonctionnerait
Le problème n’est pas que l’intelligence artificielle soit inutile pour la détection de la traite des êtres humains. Le problème réside dans ce qu’elle cible. Les systèmes actuels se concentrent sur les victimes plutôt que sur les auteurs, sur les annonces plutôt que sur les flux financiers, sur la correspondance de motifs plutôt que sur la perturbation des réseaux. Les chercheurs estiment que l’intelligence artificielle devrait viser l’infrastructure des opérations de traite : transactions en blockchain, itinéraires de transport, lieux d’hébergement et traces numériques que les trafiquants ne peuvent pas entièrement effacer[s].
La technologie existe pour suivre chaque portefeuille de cryptomonnaie lié à une annonce de traite sur le web ouvert ou le dark web. Mais plus de la moitié des outils d’intelligence artificielle répertoriés par Tech Against Trafficking n’étaient plus disponibles en 2024, leurs entreprises ayant soit fait faillite, soit cessé de soutenir les plateformes. Sans un investissement soutenu dans la détection de la traite des êtres humains ciblant les auteurs plutôt que les victimes, l’écart ne fera que s’élargir.
Les systèmes de détection de la traite des êtres humains échouent à des taux qui seraient inacceptables dans tout autre domaine policier. Une étude du National Institute of Justice menée dans trois juridictions a révélé que les registres officiels ne captaient qu’entre 14% et 18% des victimes potentielles de la traite des êtres humains, les dossiers policiers n’enregistrant spécifiquement pas plus de 6%[s]. Ce sous-dénombrement découle de trois échecs cumulatifs : le manque de formation des agents, des systèmes de codification des infractions inadéquats et la complexité de prouver la force, la fraude ou la coercition.
Le rapport 2024 de l’Organisation internationale du Travail quantifie l’ampleur du phénomène : 27,6 millions de personnes en travail forcé dans le monde, générant 236 milliards de dollars de profits illégauxAgents de renseignement déployés à l'étranger sous de fausses identités sans couverture diplomatique, opérant comme citoyens ordinaires tout en menant l'espionnage.[s]. Les profits ont augmenté de 37% depuis 2014, avec un revenu par victime passant de 8 269 dollars à près de 10 000 dollars (en dollars constants). L’exploitation sexuelle représente 73% des profits illégaux totaux, bien qu’elle ne concerne que 27% des victimes, en raison de l’écart massif de revenus par victime : 27 252 dollars contre 3 687 dollars pour les autres formes de travail forcé.
Le Biais AlgorithmiqueQuand les systèmes d'apprentissage automatique produisent des résultats qui reflètent ou renforcent les biais socioéconomiques, raciaux et de genre présents dans leurs données d'entraînement. dans la Détection de la Traite des Êtres Humains
Les travaux de Joy Buolamwini, chercheuse au Massachusetts Institute of Technology, sur les biais de la reconnaissance facialeIdentification automatisée des individus par analyse de leurs traits du visage dans des images ou vidéos via des algorithmes d'IA. Un résultat positif constitue une piste, pas une preuve. ont des implications directes pour les enquêtes sur la traite. Les ensembles de données de référence gouvernementaux comme IJB-A, malgré des efforts explicites en faveur de la diversité géographique, comptaient plus de 80% d’individus à la peau claire[s]. Ce biais se propage par plusieurs mécanismes : les ensembles de données sur les personnalités publiques héritent des « ombres du pouvoir » de ceux qui occupent des fonctions politiques; l’attention médiatique fausse la disponibilité des images en faveur des populations déjà visibles; les algorithmes de détection faciale échouent plus souvent sur les visages à la peau plus foncée, les excluant ainsi entièrement des ensembles d’entraînement.
Le programme Memex de la DARPA, qui a développé l’un des pipelines de détection de la traite des êtres humains les plus sophistiqués sur trois ans, a reconnu ce problème sans détour. Les chercheurs ont constaté que « la détection automatique de la traite est une application importante de l’intelligence artificielle pour le bien social », mais qu’elle « offre également des leçons de prudence pour le déploiement d’algorithmes d’apprentissage automatique prédictifs sans une correction appropriée des biais »[s]. Leur système, intégré à une plateforme de recherche contenant plus de 100 millions d’annonces et utilisé par plus de 200 agences policières, a nécessité une atténuation extensive des biais a posteriori.
Le Problème du Fantôme Numérique
La détection de la traite des êtres humains par l’intelligence artificielle repose sur une hypothèse fondamentale : les victimes laissent des traces numériques. Les trafiquants éliminent systématiquement ces traces; ils confisquent les appareils électroniques, contrôlent toutes les communications et séparent les victimes de tout réseau de soutien susceptible de remarquer leur absence[s]. Les victimes deviennent des « fantômes numériques » sans empreinte exploitable par les algorithmes.
Les contraintes techniques aggravent ce problème. Le chiffrement de bout en bout, bien qu’essentiel pour la protection de la vie privée légitime, « entrave la capacité des tiers à voir les conversations d’une plateforme mobile à une autre, rendant ainsi l’examen de l’appareil d’autant plus vital »[s]. Le National Center for Missing and Exploited Children a signalé que le nombre total de signalements via sa CyberTipline est passé de 36,2 millions en 2023 à 20,5 millions en 2024, non pas parce que les crimes ont diminué, mais parce que « certaines plateformes ne signalent pas comme elles le devraient » en raison du chiffrement et de la réduction des soumissions[s].
Les Systèmes de Surveillance qui Nuisent
Human Rights Watch a documenté comment les outils de détection de la traite des êtres humains « ne parviennent pas à distinguer le travail du sexe consenti de la traite », conduisant à la surveillance des communautés marginalisées[s]. Une campagne du Department of Homeland Security a instruit le personnel hôtelier à signaler des « signes de traite » sur la base d’indicateurs comme la demande de serviettes supplémentaires, l’attente au bar ou l’utilisation d’argent liquide. Ces stéréotypes entraînent une surveillance disproportionnée des travailleuses et travailleurs du sexe pauvres, racisé·e·s et transgenres, tout en confondant des tactiques de sécurité standard avec des indicateurs de traite.
Une étude académique de 2022 sur les technologies d’extraction d’annonces a révélé un « désalignement entre les développeurs, les utilisateurs de la plateforme et les travailleuses et travailleurs du sexe qu’ils tentent d’aider », concluant que ces approches sont « inefficaces » et « exacerbent les préjudices »[s]. Les systèmes sont optimisés pour des métriques qui ne corrèlent pas avec l’identification des victimes.
La Course aux Armements de l’IA Adversaire
Les trafiquants ont adopté l’intelligence artificielle plus rapidement que les forces de l’ordre. Le rapport 2025 sur la traite des personnes souligne que les criminels « utilisent l’intelligence artificielle pour renforcer leurs opérations, en recourant à des outils de traduction pour rédiger des messages culturellement nuancés qui résonnent avec les victimes dans leur langue maternelle »[s]. Les deepfakes générés par intelligence artificielle, la synthèse vocaleLa génération artificielle de paroles humaines à l'aide de la technologie, permettant aux ordinateurs de convertir le texte en mots parlés ou d'imiter des voix spécifiques. et les outils de conversion texte-image permettent la production à grande échelle de chantage à caractère sexuel et de matériel pédopornographique, avec plus de 20 000 images de matériel pédopornographique générées par intelligence artificielle découvertes sur un seul forum du dark webSections anonymisées d'Internet accessibles via des logiciels spécialisés (comme Tor) qui cachent l'identité et la localisation de l'utilisateur. Bien que des utilisations légitimes existent, il accueille des marchés illégaux et des réseaux d'exploitation. en 2024.
Les données 2024 du National Center for Missing and Exploited Children ont montré une augmentation de 55% des signalements de traite sexuelle d’enfants d’une année sur l’autre, tandis que les signalements impliquant de l’intelligence artificielle générative ont bondi de 1 325%[s]. L’analyse de Thorn a noté que, bien que le contenu généré par intelligence artificielle « reste un faible pourcentage du total des signalements, c’est un signe clair que le matériel pédopornographique généré par intelligence artificielle est en croissance ».
L’Échec de l’Allocation des Ressources
Les données du Department of Justice révèlent un problème structurel : 75% des 361 millions de dollars accordés en 2022 pour lutter contre la traite des êtres humains ont été alloués aux services aux victimes[s]. Ces services sont essentiels, mais cette allocation reflète un modèle de lutte contre le trafic de stupéfiants qui ne se transpose pas : dans le trafic de drogue, réduire la demande (en traitant les consommateurs) a du sens, car les consommateurs choisissent de participer. Dans la traite des êtres humains, les victimes sont le « produit », pas les consommateurs. Appliquer une logique de réduction de la demande aux victimes de traite est une erreur de catégorie.
Tech Against Trafficking a répertorié plus de 300 outils de lutte contre la traite des êtres humains, dont seulement 10% environ utilisaient l’intelligence artificielle. En 2024, plus de la moitié de ces outils d’intelligence artificielle n’étaient plus disponibles[s]. Sans un investissement gouvernemental soutenu, les technologies les plus prometteuses pour améliorer la détection de la traite des êtres humains disparaissent.
Où l’Intelligence Artificielle Pourrait Fonctionner
Une application plus appropriée de l’intelligence artificielle ciblerait les trafiquants plutôt que les victimes : analyse des blockchains pour les portefeuilles de cryptomonnaies liés aux annonces de traite, détection des schémasCadres mentaux de représentations compressées et d'attentes que le cerveau utilise pour encoder, stocker et récupérer les informations. Lorsque vous vous souvenez de quelque chose, votre cerveau la reconstruit en utilisant des schémas plus tous les indices contextuels présents. de transport, identification des lieux d’hébergement et des « poussières numériques » que les criminels ne peuvent pas entièrement éliminer[s]. L’intelligence artificielle générative pourrait même automatiser la création de mandats de perquisition et de citations à comparaître à partir de preuves collectées numériquement, réduisant ainsi la charge administrative tout en protégeant les libertés civiles.
La technologie existe. Le financement, lui, fait défaut. Tant que la détection de la traite des êtres humains ne passera pas de la surveillance des victimes à l’interdiction des auteurs, l’écart de 94% persistera.



