Depuis plus d’un siècle, la balistique judiciaire a contribué à condamner des milliers de prévenus. Les procureurs présentent des témoignages d’experts déclarant que des balles ou des douilles correspondent à une arme précise « à l’exclusion de toute autre arme à feu ». Les jurés entendent ces affirmations comme des certitudes scientifiques. Or, un nombre croissant de travaux de recherche remet en question la fiabilité de la balistique judiciaire dans ses fondements mêmes, révélant que cette discipline repose sur des postulats qui n’ont jamais été rigoureusement prouvés.
La science qui n’en serait peut-être pas une
Le principe de l’identification des armes à feu semble intuitif : lorsqu’une arme tire, le canon laisse des rayures uniques sur la balle, et le mécanisme de tir laisse des marques distinctives sur la douille. Faites correspondre ces marques, et vous pouvez relier une balle à une arme précise. Cette logique fonde les poursuites pénales depuis le début du XXe siècle.[s]
Le problème, c’est que la fiabilité de la balistique judiciaire n’a jamais été établie avec la rigueur statistique appliquée à l’analyse de l’ADN. En 2009, l’Académie nationale des sciences des États-Unis a publié un rapport historique concluant que « des études suffisantes n’ont pas été menées pour comprendre la fiabilité et la reproductibilité des méthodes ».[s] Sept ans plus tard, le Conseil des conseillers présidentiels en science et en technologie a renforcé cette conclusion, indiquant que « les preuves actuelles ne satisfont toujours pas aux critères scientifiques de validité fondamentaleUn standard scientifique indiquant qu'une méthode médico-légale a été prouvée fiable et précise par des tests rigoureux et l'examen par les pairs. ».[s]
Quand les experts se trompent
Patrick Pursley a passé près de 24 ans dans une prison de l’Illinois pour un meurtre qu’il n’a pas commis. L’accusation contre lui reposait principalement sur le témoignage d’un expert en armes à feu, qui avait déclaré que des balles retrouvées sur les lieux du crime correspondaient à une arme trouvée au domicile de Pursley « à l’exclusion de toute autre arme à feu ».[s]
Des années plus tard, lorsque les preuves ont finalement été soumises à la base de données du National Integrated Ballistic Information Network, le système n’a pas trouvé de correspondance entre les balles tirées à titre d’essai et les preuves relevées sur la scène de crime. Deux experts indépendants ont ensuite réexaminé l’ensemble des preuves physiques et conclu qu’aucune des balles ni des douilles ne provenait de l’arme de Pursley.[s] En janvier 2019, un juge l’a acquitté.
L’affaire Pursley illustre une préoccupation centrale concernant la fiabilité de la balistique judiciaire : les conclusions dépendent entièrement du jugement subjectif d’experts individuels, sans seuil objectif permettant de définir ce qui constitue une « correspondance ».
Les chiffres derrière le doute
Lorsque des chercheurs étudient la précision réelle des experts en armes à feu, les résultats varient considérablement selon la façon dont on comptabilise les données. Une grande étude financée par le FBI a révélé des taux de faux positifsLa proportion de cas négatifs qu'un classifieur étiquette incorrectement comme positifs. Un taux élevé indique que le modèle sur-signale des éléments non pertinents. inférieurs à 1 %, ce qui semble rassurant.[s] Mais ce chiffre masque quelque chose d’important : les experts de l’étude ont qualifié un pourcentage important de comparaisons de « non concluantes ».
Lorsque des statisticiens ont recalculé les données en traitant les résultats non concluants comme des erreurs potentielles, le tableau a changé radicalement. Pour les tests où les experts devaient déterminer si des balles provenaient d’armes différentes, le taux d’erreur potentiel est monté à 66 %.[s] Le taux d’erreur réel se situe quelque part entre ces deux extrêmes, mais sans conception appropriée des études, personne ne peut dire où.
Les tribunaux commencent à réagir
Certains tribunaux ont commencé à limiter ce que les experts en armes à feu peuvent affirmer. En 2023, la plus haute juridiction du Maryland a statué qu’un expert n’aurait pas dû être autorisé à émettre une « opinion sans réserve » selon laquelle des balles retrouvées sur une scène de crime avaient été tirées par l’arme de l’accusé.[s] Le tribunal a estimé que si la méthodologie peut étayer des conclusions selon lesquelles les marques sont « compatibles ou incompatibles » avec une arme à feu donnée, elle ne peut pas soutenir de manière fiable des affirmations catégoriques d’identité.
Cette décision reflète une tendance judiciaire plus large. Les tribunaux exigent de plus en plus que les experts reconnaissent les limites de leur méthodologie, plutôt que de témoigner avec une « certitude pratique » ou d’affirmer une correspondance « à l’exclusion de toute autre arme à feu ».[s]
La voie à suivre
Des chercheurs du National Institute of Standards and Technology élaborent de nouvelles approches qui pourraient à terme asseoir la fiabilité de la balistique judiciaire sur des bases plus solides. Grâce à la numérisation 3D haute résolution, ils constituent des bases de données qui saisissent la topographie réelle de la surface des balles et des douilles. Contrairement à la microscopie 2D traditionnelle, ces données ne sont pas affectées par les conditions d’éclairage et peuvent être analysées aussi bien par des humains que par des algorithmes.[s]
L’objectif est de développer des méthodes statistiques similaires à celles utilisées en analyse ADN, permettant aux experts d’exprimer la probabilité d’une correspondance avec une certitude quantifiable. Mais les chercheurs estiment qu’il faudra encore trois à cinq ans avant que ces méthodes soient couramment acceptées par les tribunaux.[s]
En attendant, les questions sur la fiabilité de la balistique judiciaire restent sans réponse. Des personnes continuent d’être condamnées sur la base de témoignages qui peuvent paraître plus certains que ce que la science justifie.
Le problème fondamental de la fiabilité de la balistique judiciaire
L’identification des armes à feu repose sur deux postulats : premièrement, que les surfaces intérieures des canons et des mécanismes de tir laissent des marques propres à chaque arme individuelle ; deuxièmement, que des experts formés peuvent distinguer de manière fiable ces caractéristiques individuellesMarques microscopiques aléatoires théoriquement uniques à chaque arme à feu, examinées pour l'identification des armes. des « caractéristiques de classeCaractéristiques générales partagées par tous les articles du même processus de fabrication, comme le calibre et les rayures des canons. » communes à toutes les armes du même modèle. Aucun de ces postulats n’a été validé selon les normes appliquées dans d’autres disciplines forensiques.[s]
La méthodologie remonte au début du XXe siècle. Calvin Goddard a contribué à établir le Bureau of Forensic Ballistics à New York en 1925, et le FBI a créé une unité dédiée à l’identification des armes à feu en 1932.[s] Pendant des décennies, les tribunaux ont accepté ces preuves avec un examen scientifique limité, sous la norme Frye, qui n’exigeait qu’une « acceptation générale » au sein de la communauté concernée. La décision Daubert de 1993 a relevé la barre en exigeant une fiabilité scientifique, et pas seulement une acceptation, mais les questions fondamentales sur la fiabilité de la balistique judiciaire n’ont guère été examinées jusqu’au rapport de l’Académie nationale des sciences de 2009.
Le débat statistique sur les taux d’erreur
Les études de validation modernes, appelées études en « boîte noire », cherchent à mesurer avec quelle précision les experts peuvent relier des balles et des douilles à des armes spécifiques. Une grande étude du laboratoire du FBI a impliqué 173 experts qualifiés effectuant 8 640 comparaisons. Le taux de faux positifsLa proportion de cas négatifs qu'un classifieur étiquette incorrectement comme positifs. Un taux élevé indique que le modèle sur-signale des éléments non pertinents. signalé était de 0,656 % pour les balles et de 0,933 % pour les douilles.[s]
Ces chiffres semblent soutenir la fiabilité de la balistique judiciaire. Mais des statisticiens ont identifié des problèmes méthodologiques critiques. Lorsque des experts ne peuvent pas déterminer si des échantillons correspondent, ils peuvent déclarer « non concluant » plutôt que de rendre un verdict définitif. Dans une précédente étude FBI et laboratoire d’Ames réanalysée par des statisticiens indépendants, les experts ont déclaré un résultat non concluant pour 51 % de toutes les comparaisons de balles et 42 % des comparaisons de douilles ; parmi les comparaisons de balles provenant de sources différentes, le taux de résultats non concluants a atteint 65 %.[s]
Les taux d’erreur signalés traitent tous les résultats non concluants comme des réponses correctes. Les critiques soutiennent que cela est mathématiquement équivalent à laisser des étudiants répondre « je ne sais pas » à un examen et à comptabiliser ces réponses comme correctes. Lorsque les résultats non concluants sont traités comme des erreurs potentielles, le taux de faux positifs pour les comparaisons de balles provenant de sources différentes passe de 0,70 % à 66,1 %.[s] Le véritable taux d’erreur se situe quelque part entre ces bornes, mais les études existantes ne peuvent pas déterminer où.
L’effet Hawthorne et les tests en aveugle
Une analyse de 2025 portant sur des données du Centre des sciences forensiques de Houston a révélé un autre problème : les experts se comportent différemment lorsqu’ils savent qu’ils sont testés. Le laboratoire de Houston avait tenté d’intégrer des échantillons fictifs dans les affaires courantes à l’insu des experts. Lorsque des experts identifiaient un échantillon comme un test, ils étaient 43,5 % plus susceptibles de le déclarer non concluant.[s]
Le neuroscientifique cognitif Itiel Dror, spécialiste des biais dans l’analyse forensique, a écrit que cette découverte « réfute la validité de l’ensemble de l’entreprise des études en boîte noire telles qu’elles ont été menées jusqu’à présent ».[s] Si les experts sont plus prudents lors des tests, les faibles taux d’erreur dans les études de validation pourraient ne pas refléter les performances réelles.
Étude de cas : Patrick Pursley
La condamnation injuste de Patrick Pursley illustre comment les défaillances de la fiabilité de la balistique judiciaire peuvent briser des vies. En 1993, Pursley a été condamné pour meurtre à Rockford, dans l’Illinois. L’accusation ne disposait d’aucun témoignage oculaire, d’aucun aveu, d’aucune preuve ADN et d’aucune empreinte digitale le reliant au crime. L’affaire reposait principalement sur le témoignage d’un expert en armes à feu de l’État, qui avait déclaré que des balles et des douilles retrouvées sur les lieux du crime correspondaient à un Taurus 9 mm saisi au domicile de Pursley « à l’exclusion de toute autre arme à feu ».[s]
Pursley a passé des années à écrire à des organisations défendant l’innocence des condamnés, mais il n’existait aucun mécanisme juridique permettant de demander de nouveaux tests balistiques. En 2007, après que des militants ont contribué à faire adopter un amendement à la loi de l’Illinois sur les tests forensiques après condamnation, ses avocats ont déposé la première requête en vertu de cette nouvelle loi. La requête demandait la comparaison des preuves avec la base de données du National Integrated Ballistic Information Network.
Après des années de procédures judiciaires, la police d’État de l’Illinois a finalement soumis des images des preuves au réseau NIBIN fin 2011. Le système n’a trouvé aucune correspondance numérique entre les échantillons tirés à titre d’essai et les preuves de la scène de crime. Deux experts forensiques indépendants en armes à feu, John Murdock et Chris Coleman, ont ensuite réexaminé l’ensemble des preuves physiques. Tous deux ont conclu, indépendamment, qu’aucune des balles ni des douilles ne provenait de l’arme retrouvée au domicile de Pursley.[s]
Le 16 janvier 2019, un juge a acquitté Pursley. Il avait purgé près de 24 ans pour un meurtre qu’il n’avait pas commis, condamné sur la base d’un témoignage qui s’est ensuite révélé erroné.
Défaillances systémiques : l’affaire du Rhode Island
La compétence de base ne peut même pas être tenue pour acquise. Dans une récente affaire au Rhode Island, trois experts forensiques qualifiés ont déclaré une correspondance entre des douilles qui présentaient des différences dans leurs caractéristiques de classe, à savoir les caractéristiques les plus fondamentales et les plus objectives de l’identification des armes à feu. Comme l’ont souligné des experts forensiques, c’était « l’équivalent forensique de déclarer que deux pneus de tailles entièrement différentes correspondent au même véhicule ».[s]
L’erreur s’est produite en raison d’un biais de confirmationTendance à rechercher, interpréter et mémoriser les informations d'une manière qui confirme vos croyances existantes, en ignorant les preuves contradictoires. : les experts se sont concentrés sur les similitudes tout en ignorant des différences évidentes. Le problème a été aggravé par une vérification non en aveugle, où les examinateurs ultérieurs connaissaient la conclusion du premier expert avant de procéder à leur propre analyse. Un éminent expert en armes à feu a témoigné qu’en plus de 50 ans de pratique, il n’avait jamais vu un second expert contredire le premier.[s]
La décision du Maryland et ses implications
En juin 2023, la Cour suprême du Maryland a rendu une décision importante dans l’affaire Kobina Ebo Abruquah contre l’État du Maryland. Le tribunal a estimé qu’un expert en armes à feu n’aurait pas dû être autorisé à formuler une « opinion sans réserve » selon laquelle des balles retrouvées sur une scène de crime avaient été tirées par l’arme de l’accusé.[s]
Le tribunal a examiné la littérature scientifique et a conclu que si la méthodologie peut étayer des conclusions fiables selon lesquelles les marques sont « compatibles ou incompatibles » avec celles des balles tirées par une arme à feu particulière, « ces rapports, études et témoignages ne démontrent toutefois pas que la méthodologie utilisée peut soutenir de manière fiable une conclusion sans réserve selon laquelle ces balles ont été tirées par une arme à feu particulière ».[s]
La décision impose un nouveau procès pour Abruquah et établit un précédent limitant la façon dont les experts en armes à feu peuvent témoigner devant les tribunaux du Maryland. Des limitations similaires ont été imposées dans d’autres juridictions à la suite du rapport PCAST.[s]
Vers des méthodes objectives
Le National Institute of Standards and Technology s’efforce d’établir la fiabilité de la balistique judiciaire sur des bases empiriques plus solides. L’ingénieur en mécanique Xiaoyu Alan Zheng a dirigé le développement de la base de données de recherche sur les marques d’outils balistiques du NIST, qui utilise la microscopie 3D haute résolution pour créer des modèles virtuels des marques d’outils sur les balles et les douilles.[s]
Contrairement aux images 2D traditionnelles, qui varient selon les conditions d’éclairage, les données de topographie de surface 3D sont constantes et reproductibles. Cela permet des comparaisons algorithmiques et le développement de métriques de similarité statistiques. L’objectif est à terme de fournir des rapports de vraisemblance similaires à ceux utilisés en analyse ADN, offrant aux tribunaux des mesures quantifiables de l’incertitude plutôt que des opinions subjectives d’experts.[s]
Cependant, constituer une population de référence suffisamment grande pour étayer des affirmations statistiques prendra des années. Les chercheurs estiment que les méthodes 3D bénéficiant d’un soutien statistique complet sont encore à trois à cinq ans d’une acceptation courante devant les tribunaux.[s]
Les questions sans réponse
La statisticienne Maria Cuellar, qui a examiné 28 études de validation, a trouvé « des défauts méthodologiques si graves qu’ils rendent les études invalides ».[s] Son évaluation : « Ce n’est pas dire « c’est mauvais ». C’est dire « nous ne savons pas à quel point c’est mauvais ». »
Alicia Carriquiry, statisticienne à l’Université d’État de l’Iowa, convient que les méthodes actuelles ne permettent pas d’établir de véritables taux d’erreur, mais souligne que l’examen des armes à feu n’est pas fondamentalement invalide. « Lorsque vous utilisez des méthodes appropriées, comme la microscopie à haute résolution et les méthodes statistiques appropriées, vous obtenez effectivement de bons résultats », a-t-elle déclaré à Undark. « L’approche subjective de l’évaluation est le problème, pas l’absence de marques. »[s]
Tant que la discipline ne développera pas de méthodes objectives et statistiquement validées, la fiabilité de la balistique judiciaire restera une question ouverte. Les tribunaux commencent à reconnaître ces limites, mais les jurés entendent encore des témoignages d’experts qui paraissent souvent plus certains que ce que la science justifie. Des personnes continuent d’être condamnées, et parfois injustement emprisonnées, sur la base de preuves dont les fondements n’ont jamais été prouvés.



