- Die Polizeibehörden setzen zunehmend auf KI-gestützte Gesichtserkennungstechnologie, um Verdächtige zu identifizieren und festzunehmen.
- Viele Dienststellen nehmen diese Verhaftungen vor, ohne zusätzliche grundlegende polizeiliche Maßnahmen zur Überprüfung der Beweise zu ergreifen, was zu einem Anstieg der unrechtmäßigen Verhaftungen führt.
- Es gibt mindestens acht dokumentierte Fälle von unrechtmäßigen Verhaftungen aufgrund von Fehlern bei der Gesichtserkennung.
- Viele Polizeidienststellen gehen nicht transparent mit ihrem Einsatz von Gesichtserkennungstechnologien um, was darauf hindeutet, dass die Zahl der unrechtmäßigen Verhaftungen durch KI viel höher ist.
- KI-Gesichtserkennungsalgorithmen haben mit schlechter Bildqualität, schlechten Lichtverhältnissen und ungewöhnlichen Blickwinkeln zu kämpfen und weisen erhebliche Vorurteile auf, insbesondere gegenüber Frauen und Menschen mit dunkler Hautfarbe.
Immer mehr Polizeidienststellen setzen auf mit künstlicher Intelligenz betriebene Gesichtserkennungssoftware – was zu einem Anstieg falscher Verhaftungen führt. (Vgl. ZeroHedge)
Eine Untersuchung hat ergeben, dass sich Polizeidienststellen landesweit auf Gesichtserkennungssoftware verlassen, um Verdächtige zu identifizieren und zu verhaften, oft ohne stichhaltige Beweise. Schockierenderweise sind die meisten Dienststellen nicht verpflichtet, ihren Einsatz dieser Technologie offenzulegen oder zu dokumentieren.
Von 23 Dienststellen mit verfügbaren Aufzeichnungen nahmen 15 in 12 Bundesstaaten Verhaftungen vor, die ausschließlich auf KI-Treffern beruhten, wobei sie häufig gegen ihre eigenen internen Richtlinien verstießen, die zusätzliche Beweise vorschreiben, bevor sie solch drastische Maßnahmen ergreifen.
Aus den gesammelten Informationen geht hervor, dass es in den USA acht dokumentierte Fälle von unrechtmäßigen Verhaftungen gab, die auf der Grundlage von Informationen aus der KI-Gesichtserkennung vorgenommen wurden, wobei zwei dieser Fälle bisher nicht gemeldet wurden. Alle Anklagen gegen diese Personen wurden schließlich fallen gelassen. Die Untersuchung stellt fest, dass grundlegende polizeiliche Maßnahmen wie die Überprüfung von Alibis und der Vergleich physischer Beweise diese unrechtmäßigen Verhaftungen leicht hätten verhindern können.
Der Bericht warnt außerdem davor, dass die Daten über unrechtmäßige Verhaftungen aufgrund von Gesichtserkennungstechnologien sehr spärlich sind und das wahre Ausmaß des Problems unbekannt bleibt, da die meisten Dienststellen nicht transparent sind und sich weigern, ihren Einsatz von KI-Gesichtserkennungstechnologien offenzulegen. (Vgl. Surveillance)
Algorithmen der KI-Gesichtserkennungssoftware erkennen keine echten Kriminellen
Gesichtserkennungssoftware verwendet Algorithmen, um Gesichtsmerkmale in Fotos oder Videoaufnahmen zu analysieren und zu vergleichen. Die Technologie erfasst einzigartige Merkmale – wie den Abstand zwischen den Augen, die Form des Kiefers und die Konturen der Nase – um einen digitalen „Gesichtsabdruck“ zu erstellen. Dieser Gesichtsabdruck wird dann mit einer Datenbank von Bildern verglichen, um potenzielle Übereinstimmungen zu finden.
Was sich nach einem narrensicheren System anhört, ist in Wirklichkeit sehr viel komplizierter. Algorithmen zur Gesichtserkennung sind bei weitem nicht perfekt. Sie haben oft Probleme mit schlechter Bildqualität, schlechter Beleuchtung oder ungewöhnlichen Blickwinkeln.
Noch beunruhigender ist, dass diese Systeme häufig rassistische und geschlechtsspezifische Vorurteile aufweisen. Studien haben gezeigt, dass Gesichtserkennungssoftware Frauen und People of Color, insbesondere solche mit dunklerer Hautfarbe, mit deutlich höherer Wahrscheinlichkeit falsch identifiziert.
Diese inhärente Voreingenommenheit hatte bereits verheerende Folgen. Nehmen wir den Fall von Randal Reid, der eine Woche im Gefängnis saß, für ein Verbrechen, das in einem Staat begangen wurde, den er nie besucht hatte. (Vgl. Mozilla)
Oder Porcha Woodruff, eine sichtlich schwangere Frau, die wegen Autodiebstahls verhaftet wurde, obwohl sie körperlich nicht in der Lage war, eine solche Tat zu begehen.
Robert Williams, das erste dokumentierte Opfer einer unrechtmäßigen Verhaftung aufgrund von Gesichtserkennung, wurde beschuldigt, Uhren im Wert von Tausenden von Dollar gestohlen zu haben – und das, während er zum Zeitpunkt des angeblichen Verbrechens auf dem Heimweg war.
Im Mittelpunkt dieses Problems steht ein zutiefst menschliches Problem: die Voreingenommenheit. Wenn eine Gesichtserkennungssoftware einen Verdächtigen identifiziert, akzeptieren Strafverfolgungsbeamte das Ergebnis oft schnell als endgültig und ignorieren widersprüchliche Beweise.
Mitha Nandagopalan, eine Anwältin des Innocence Project, erklärt: „Als die Polizei in Porchas Haus auftauchte, war sie sichtlich im achten Monat schwanger, doch in der Beschreibung des Opfers über den Verdächtigen war von Schwangerschaft keine Rede. Die beschriebenen Umstände wären für jemanden, der kurz vor dem Ende seiner Schwangerschaft steht, sehr schwierig zu bewerkstelligen, und dennoch wurde die Verhaftung vorgenommen.“
Sehen Sie sich folgendes Video an, das zeigt, wie die Gesichtserkennungstechnologie an Flughäfen eingesetzt wird. (Vgl. Brighteon)

Quelle: Natural News
Telegram zensiert nicht! Wenn du diese Information wichtig findest, kannst du Legitim auf Telegram kostenlos abonnieren: hier anmelden (Telegram herunterladen)