Seit über einem Jahrhundert hat die forensische BallistikForensische Disziplin, die Projektile, Patronenhülsen und Schusswaffen analysiert, um Beweise in Strafermittlungen bestimmten Waffen zuzuordnen. dazu beigetragen, tausende Angeklagte zu verurteilen. Staatsanwälte legen Sachverständigenaussagen vor, nach denen Geschosse oder Patronenhülsen einer bestimmten Waffe entsprechen, „unter Ausschluss aller anderen Schusswaffen“. Geschworene nehmen dies als wissenschaftliche Gewissheit wahr. Doch eine wachsende Zahl von Forschungsarbeiten stellt die Zuverlässigkeit der forensischen Ballistik in ihren Grundlagen in Frage und zeigt, dass die Disziplin auf Annahmen beruht, die nie streng bewiesen worden sind.
Die Wissenschaft, die vielleicht keine ist
Das Prinzip der Schusswaffenidentifikation erscheint intuitiv: Wenn eine Waffe feuert, hinterlässt der Lauf einzigartige Kratzer auf dem Geschoss, und der Zündmechanismus hinterlässt charakteristische Spuren auf der Patronenhülse. Ordnet man diese Spuren einander zu, lässt sich ein Geschoss mit einer bestimmten Waffe in Verbindung bringen. Diese Logik liegt strafrechtlichen Verfolgungen seit dem frühen 20. Jahrhundert zugrunde.[s]
Das Problem besteht darin, dass die Zuverlässigkeit der forensischen Ballistik nie mit der statistischen Strenge nachgewiesen wurde, die bei der DNA-Analyse angewendet wird. Im Jahr 2009 veröffentlichte die National Academy of Sciences einen wegweisenden Bericht, der zu dem Schluss kam, dass „nicht genügend Studien durchgeführt wurden, um die Zuverlässigkeit und Reproduzierbarkeit der Methoden zu verstehen“.[s] Sieben Jahre später bekräftigte der Rat der Berater des Präsidenten für Wissenschaft und Technologie diesen Befund und stellte fest, dass „die vorliegenden Belege weiterhin nicht den wissenschaftlichen Kriterien für grundlegende ValiditätEin wissenschaftlicher Standard, der anzeigt, dass eine forensische Methode durch strenge Tests und Peer-Review als zuverlässig und genau erwiesen wurde. genügen“.[s]
Wenn Sachverständige irren
Patrick Pursley verbrachte fast 24 Jahre in einem Gefängnis in Illinois für einen Mord, den er nicht begangen hatte. Die Anklage gegen ihn stützte sich in erster Linie auf einen Schusswaffen-Sachverständigen, der aussagte, dass Geschosse vom Tatort mit einer in Pursleys Wohnung gefundenen Waffe übereinstimmten, „unter Ausschluss aller anderen Schusswaffen“.[s]
Jahre später, als die Beweise schließlich in die Datenbank des National Integrated Ballistic Information Network eingespeist wurden, fand das System keine Übereinstimmung zwischen den Testgeschossen und den Tatortbeweisen. Zwei unabhängige Sachverständige untersuchten anschließend alle physischen Beweise erneut und kamen zu dem Schluss, dass weder die Geschosse noch die Patronenhülsen aus Pursleys Waffe stammten.[s] Im Januar 2019 sprach ihn ein Richter frei.
Pursleys Fall verdeutlicht ein zentrales Problem der Zuverlässigkeit der forensischen Ballistik: Die Schlussfolgerungen hängen vollständig vom subjektiven Urteil einzelner Sachverständiger ab, ohne objektiven Maßstab dafür, was eine „Übereinstimmung“ ausmacht.
Die Zahlen hinter dem Zweifel
Wenn Forscher untersuchen, wie gut Schusswaffen-Sachverständige tatsächlich abschneiden, variieren die Ergebnisse je nach Zählweise erheblich. Eine große, vom FBI finanzierte Studie ergab Falsch-Positiv-Raten von unter 1 %, was beruhigend klingt.[s] Doch diese Zahl verbirgt etwas Wichtiges: Ein großer Teil der Vergleiche wurde von den Sachverständigen als „nicht schlüssig“ eingestuft.
Als Statistiker die Daten neu berechneten und nicht schlüssige Ergebnisse als potenzielle Fehler behandelten, veränderte sich das Bild drastisch. Bei Tests, bei denen Sachverständige bestimmen mussten, ob Geschosse aus verschiedenen Waffen stammten, stieg die potenzielle Fehlerquote auf 66 %.[s] Die tatsächliche Fehlerquote liegt irgendwo zwischen diesen Extremen, doch ohne angemessenes Studiendesign lässt sich nicht sagen, wo.
Gerichte beginnen zu reagieren
Einige Gerichte haben begonnen, die Aussagen von Schusswaffen-Sachverständigen einzuschränken. Im Jahr 2023 entschied das höchste Gericht von Maryland, dass einem Sachverständigen nicht hätte gestattet werden dürfen, eine „uneingeschränkte Meinung“ zu äußern, wonach Tatortgeschosse aus der Waffe des Angeklagten stammten.[s] Das Gericht stellte fest, dass die Methodik zwar Schlussfolgerungen stützen kann, dass Markierungen mit einer bestimmten Schusswaffe „übereinstimmen oder nicht übereinstimmen“, sie jedoch keine kategorischen Identitätsaussagen zuverlässig untermauern kann.
Dieses Urteil spiegelt einen breiteren Rechtstrend wider. Gerichte fordern zunehmend, dass Sachverständige die Grenzen ihrer Methodik anerkennen, anstatt mit „praktischer Sicherheit“ auszusagen oder eine Übereinstimmung „unter Ausschluss aller anderen Schusswaffen“ zu behaupten.[s]
Der Weg nach vorn
Forscher am National Institute of Standards and Technology entwickeln neue Ansätze, die die Zuverlässigkeit der forensischen Ballistik auf festeres Fundament stellen könnten. Mithilfe hochauflösender 3D-Scans erstellen sie Datenbanken, die die tatsächliche Oberflächentopographie von Geschossen und Patronenhülsen erfassen. Im Gegensatz zur herkömmlichen 2D-Mikroskopie werden diese Daten nicht durch Beleuchtungsbedingungen beeinflusst und können sowohl von Menschen als auch von Algorithmen analysiert werden.[s]
Ziel ist es, statistische Methoden zu entwickeln, die jenen in der DNA-Analyse ähneln, sodass Experten die Wahrscheinlichkeit einer Übereinstimmung mit quantifizierbarer Sicherheit angeben können. Forscher schätzen jedoch, dass es noch drei bis fünf Jahre dauern wird, bis diese Methoden routinemäßig vor Gericht anerkannt werden.[s]
Bis dahin bleiben die Fragen zur Zuverlässigkeit der forensischen Ballistik offen. Menschen werden weiterhin auf der Grundlage von Aussagen verurteilt, die gewisser klingen können, als die Wissenschaft rechtfertigt.
Das grundlegende Problem mit der Zuverlässigkeit der forensischen Ballistik
Die Schusswaffenidentifikation beruht auf zwei Annahmen: erstens, dass die Innenoberflächen von Läufen und Zündmechanismen Spuren hinterlassen, die für jede einzelne Waffe einzigartig sind; zweitens, dass ausgebildete Sachverständige diese individuellen Merkmale zuverlässig von den „Klassenmerkmalen“ unterscheiden können, die alle Waffen derselben Bauart und desselben Modells teilen. Keine der beiden Annahmen wurde nach den Standards validiert, die in anderen forensischen Disziplinen angewendet werden.[s]
Die Methodik reicht bis ins frühe 20. Jahrhundert zurück. Calvin Goddard half 1925, das Bureau of Forensic Ballistics in New York City zu gründen, und das FBI richtete 1932 eine eigene Schusswaffenidentifikationseinheit ein.[s] Jahrzehntelang akzeptierten Gerichte diese Beweise mit begrenzter wissenschaftlicher Prüfung nach dem Frye-StandardJuristische Regel von 1923, die verlangt, dass wissenschaftliche Beweise in ihrem Bereich allgemein akzeptiert sind vor Gerichtszulassung, 1993 durch Daubert ersetzt., der lediglich eine „allgemeine Akzeptanz“ in der betreffenden Fachgemeinschaft verlangte. Das Daubert-Urteil von 1993 setzte die Messlatte höher, indem es wissenschaftliche Zuverlässigkeit und nicht nur Akzeptanz forderte, aber die grundlegenden Fragen zur Zuverlässigkeit der forensischen Ballistik blieben bis zum Bericht der National Academy of Sciences von 2009 weitgehend ungeprüft.
Die statistische Debatte über Fehlerquoten
Moderne Validierungsstudien, sogenannte „Black-Box-Studien“, versuchen zu messen, wie genau Sachverständige Geschosse und Hülsen bestimmten Schusswaffen zuordnen können. Eine große Studie des FBI-Labors umfasste 173 qualifizierte Sachverständige, die 8.640 Vergleiche durchführten. Die gemeldete Falsch-Positiv-RateDer Anteil negativer Fälle, den ein Klassifikator fälschlich als positiv einstuft. Ein hoher Wert zeigt, dass das Modell zu viele irrelevante Einträge markiert. betrug 0,656 % für Geschosse und 0,933 % für Patronenhülsen.[s]
Diese Zahlen scheinen die Zuverlässigkeit der forensischen Ballistik zu stützen. Doch Statistiker haben schwerwiegende methodische Probleme identifiziert. Wenn Sachverständige nicht feststellen können, ob Proben übereinstimmen, können sie „nicht schlüssig“ erklären, anstatt eine endgültige Entscheidung zu treffen. In einer früheren, von unabhängigen Statistikern neu ausgewerteten FBI-Ames-Laboratory-Studie erklärten die Sachverständigen bei 51 % aller Geschossvergleiche und 42 % der Patronenhülsenvergleiche ein nicht schlüssiges Ergebnis; bei Vergleichen von Geschossen aus verschiedenen Quellen erreichte die Quote der nicht schlüssigen Ergebnisse 65 %.[s]
Die gemeldeten Fehlerquoten behandeln alle nicht schlüssigen Ergebnisse als korrekte Antworten. Kritiker argumentieren, dies sei mathematisch gleichbedeutend damit, Schülern zu erlauben, bei einer Prüfung mit „Ich weiß es nicht“ zu antworten und diese Antworten als richtig zu zählen. Wenn nicht schlüssige Ergebnisse als potenzielle Fehler behandelt werden, steigt die Falsch-Positiv-Rate bei Vergleichen von Geschossen aus verschiedenen Quellen von 0,70 % auf 66,1 %.[s] Die wahre Fehlerquote liegt irgendwo zwischen diesen Grenzen, aber bestehende Studien können nicht bestimmen, wo.
Der Hawthorne-Effekt und Blindtests
Eine Analyse von 2025 mit Daten des Houston Forensic Science Center offenbarte ein weiteres Problem: Sachverständige verhalten sich anders, wenn sie wissen, dass sie getestet werden. Das Houstoner Labor hatte versucht, Scheinproben unbemerkt in die routinemäßige Fallarbeit einzuschmuggeln. Wenn Sachverständige eine Probe als Test identifizierten, waren sie 43,5 % häufiger geneigt, sie als nicht schlüssig einzustufen.[s]
Der Kognitionsneurowissenschaftler Itiel Dror, der Verzerrungen in der forensischen Analyse erforscht, schrieb, diese Erkenntnis „widerlege die Gültigkeit des gesamten Unternehmens der Black-Box-Studien, wie sie bisher durchgeführt wurden“.[s] Wenn Sachverständige bei Tests vorsichtiger sind, spiegeln die niedrigen Fehlerquoten in Validierungsstudien möglicherweise nicht die Praxis im realen Arbeitsumfeld wider.
Fallstudie: Patrick Pursley
Die Fehlverurteilung von Patrick Pursley zeigt, wie Versagen bei der Zuverlässigkeit der forensischen Ballistik Leben zerstören können. Im Jahr 1993 wurde Pursley in Rockford, Illinois, wegen Mordes verurteilt. Die Anklage hatte keine Zeugenaussagen, kein Geständnis, keine DNA und keine Fingerabdrücke, die ihn mit dem Verbrechen in Verbindung brachten. Der Fall stützte sich in erster Linie auf einen staatlichen Schusswaffen-Sachverständigen, der aussagte, dass Geschosse und Patronenhülsen vom Tatort mit einem bei Pursley zu Hause gefundenen Taurus 9mm übereinstimmten, „unter Ausschluss aller anderen Schusswaffen“.[s]
Pursley verbrachte Jahre damit, an Unschuldsorganisationen zu schreiben, aber es gab keinen rechtlichen Mechanismus zur Beantragung neuer ballistischer Tests. Im Jahr 2007, nachdem Aktivisten an der Verabschiedung eines Zusatzes zum Illinois-Gesetz über forensische Tests nach Verurteilungen mitgewirkt hatten, stellten seine Anwälte den ersten Antrag nach dem neuen Gesetz. Der Antrag forderte einen Vergleich der Beweise mit der NIBIN-Datenbank.
Nach jahrelangen rechtlichen Auseinandersetzungen speiste die Illinois State Police Ende 2011 Bilder der Beweise in NIBIN ein. Das System fand keine digitale Übereinstimmung zwischen den Testproben und den Tatortbeweisen. Zwei unabhängige forensische Schusswaffen-Sachverständige, John Murdock und Chris Coleman, untersuchten anschließend alle physischen Beweise erneut. Beide kamen unabhängig voneinander zu dem Schluss, dass weder die Geschosse noch die Patronenhülsen aus der in Pursleys Wohnung gefundenen Waffe stammten.[s]
Am 16. Januar 2019 sprach ihn ein Richter frei. Er hatte fast 24 Jahre für einen Mord verbüßt, den er nicht begangen hatte, verurteilt auf der Grundlage eines Gutachtens, das später widerlegt wurde.
Systemisches Versagen: Der Fall Rhode Island
Selbst grundlegende Kompetenz lässt sich nicht als selbstverständlich voraussetzen. In einem jüngsten Fall in Rhode Island erklärten drei ausgebildete forensische Sachverständige eine Übereinstimmung zwischen Patronenhülsen, die Unterschiede in ihren Klassenmerkmalen aufwiesen, also den grundlegendsten und objektivsten Merkmalen der Schusswaffenidentifikation. Forensische Experten bezeichneten dies als „das forensische Äquivalent der Feststellung, dass zwei Reifen völlig unterschiedlicher Größe zu demselben Fahrzeug passen“.[s]
Der Fehler entstand durch BestätigungsverzerrungTendenz, Informationen so zu suchen, zu interpretieren und zu erinnern, dass sie bestehende Überzeugungen bestätigen, während man widersprechende Beweise ignoriert.: Die Sachverständigen konzentrierten sich auf Ähnlichkeiten und übersahen dabei offensichtliche Unterschiede. Das Problem wurde durch eine nicht blinde Überprüfung verstärkt, bei der nachfolgende Prüfer die Schlussfolgerung des ersten Sachverständigen kannten, bevor sie ihre eigene Analyse durchführten. Ein namhafter Schusswaffen-Sachverständiger sagte aus, er habe in über 50 Jahren Berufserfahrung nie erlebt, dass ein zweiter Sachverständiger dem ersten widersprochen habe.[s]
Das Maryland-Urteil und seine Folgen
Im Juni 2023 erließ der Oberste Gerichtshof von Maryland in der Sache Kobina Ebo Abruquah gegen den Staat Maryland ein bedeutendes Urteil. Das Gericht entschied, dass einem Schusswaffen-Sachverständigen nicht hätte gestattet werden dürfen, eine „uneingeschränkte Meinung“ zu äußern, wonach Tatortgeschosse aus der Waffe des Angeklagten stammten.[s]
Das Gericht prüfte die wissenschaftliche Literatur und stellte fest, dass die Methodik zwar zuverlässige Schlussfolgerungen darüber stützen kann, ob Markierungen mit jenen auf Geschossen, die aus einer bestimmten Schusswaffe abgefeuert wurden, „übereinstimmen oder nicht übereinstimmen“, jedoch zeigten „jene Berichte, Studien und Aussagen nicht, dass die verwendete Methodik zuverlässig eine uneingeschränkte Schlussfolgerung stützen kann, dass solche Geschosse aus einer bestimmten Schusswaffe abgefeuert wurden“.[s]
Das Urteil erfordert eine Neuverhandlung für Abruquah und schafft einen Präzedenzfall, der einschränkt, wie Schusswaffen-Sachverständige vor Marylands Gerichten aussagen dürfen. Ähnliche Einschränkungen wurden in anderen Rechtsgebieten nach dem PCAST-Bericht eingeführt.[s]
Auf dem Weg zu objektiven Methoden
Das National Institute of Standards and Technology arbeitet daran, die Zuverlässigkeit der forensischen Ballistik auf solideren empirischen Grundlagen zu etablieren. Maschinenbauingenieur Xiaoyu Alan Zheng hat die Entwicklung der NIST Ballistics Toolmark Research Database geleitet, die hochauflösende 3D-Mikroskopie verwendet, um virtuelle Modelle von WerkzeugspurenCharakteristische Spuren, die von Werkzeugen oder Waffen auf Objekten hinterlassen und in der Forensik analysiert werden, um Beweise mit bestimmten Instrumenten zu verknüpfen. auf Geschossen und Patronenhülsen zu erstellen.[s]
Im Gegensatz zu herkömmlichen 2D-Bildern, die je nach Beleuchtungsbedingungen variieren, sind 3D-Oberflächentopographiedaten konsistent und reproduzierbar. Dies ermöglicht algorithmische Vergleiche und die Entwicklung statistischer Ähnlichkeitsmaße. Ziel ist es, letztlich Likelihood-Quotienten bereitzustellen, ähnlich jenen in der DNA-Analyse, damit Gerichte quantifizierbare Ungewissheitsmaße erhalten, anstatt subjektive Sachverständigenmeinungen.[s]
Der Aufbau einer Referenzpopulation, die groß genug ist, um statistische Aussagen zu stützen, wird jedoch Jahre dauern. Forscher schätzen, dass 3D-Methoden mit vollständiger statistischer Unterstützung noch drei bis fünf Jahre von der routinemäßigen Anwendung in Gerichtsverfahren entfernt sind.[s]
Die ungelösten Fragen
Statistikerin Maria Cuellar, die 28 Validierungsstudien untersucht hat, fand „methodische Mängel, die so gravierend sind, dass sie die Studien entwerten“.[s] Ihre Einschätzung: „Es bedeutet nicht: ,Das ist schlecht.‘ Es bedeutet: ,Wir wissen nicht, wie schlecht das ist.'“
Alicia Carriquiry, Statistikerin an der Iowa State University, stimmt zu, dass aktuelle Methoden keine wahren Fehlerquoten ermitteln können, betont aber, dass die Schusswaffenuntersuchung nicht grundsätzlich ungültig ist. „Wenn man geeignete Methoden verwendet, wie hochauflösende Mikroskopie und geeignete statistische Methoden, erhält man tatsächlich gute Ergebnisse“, sagte sie Undark. „Der subjektive Bewertungsansatz ist das Problem, nicht das Fehlen von Spuren.“[s]
Solange die Disziplin keine objektiven, statistisch validierten Methoden entwickelt, wird die Zuverlässigkeit der forensischen Ballistik eine offene Frage bleiben. Gerichte beginnen, diese Grenzen anzuerkennen, doch Geschworene hören noch immer Sachverständigenaussagen, die oft gewisser klingen, als die Wissenschaft rechtfertigt. Menschen werden weiterhin verurteilt, und manchmal zu Unrecht inhaftiert, auf der Grundlage von Beweisen, deren Grundlagen nie nachgewiesen wurden.



