Gesichtserkennungsalgorithmus verursachte falsche Festnahme

Bitte teilen Sie diese Geschichte!
image_pdfimage_print
Diese Geschichte zeigt, warum Amazon, IBM und Microsoft sich aus dem Gesichtserkennungsgeschäft zurückgezogen haben, um bestimmte Kritik an rassistischen Vorurteilen abzulenken. In diesem Fall hat der Algorithmus den falschen Schwarzen für ein Verbrechen gefunden, das er nicht begangen hat. ⁃ TN Editor

An einem Donnerstagnachmittag im Januar war Robert Julian-Borchak Williams in seinem Büro bei einem Automobilzulieferunternehmen, als er von der Detroit Police Department einen Anruf erhielt, der ihn aufforderte, zur Verhaftung zum Bahnhof zu kommen. Er dachte zuerst, dass es ein Streich war.

Eine Stunde später, als er in einer ruhigen Wohngegend in Farmington Hills, Michigan, in seine Einfahrt einbog, hielt ein Polizeiauto hinter ihm und blockierte ihn. Zwei Beamte stiegen aus und legten Mr. Williams auf seinem Rasen vor seinem Handschellen Handschellen an Frau und zwei junge Töchter, die verstört waren. Die Polizei sagte nicht, warum er verhaftet wurde, sondern zeigte ihm nur ein Stück Papier mit seinem Foto und den Worten „Haftbefehl“ und „Diebstahl“.

Seine Frau Melissa fragte, wohin er gebracht werde. "Google it", erinnert sie sich an einen Beamten, der geantwortet hat.

Die Polizei fuhr Herrn Williams in ein Internierungslager. Er ließ sich ein Fahndungsfoto, Fingerabdrücke und DNA machen und wurde über Nacht festgehalten. Am Freitag gegen Mittag brachten ihn zwei Detectives in einen Verhörraum und legten drei Zettel verdeckt auf den Tisch.

"Wann warst du das letzte Mal in einem Shinola-Laden?" fragte einer der Detectives in Mr. Williams Erinnerung. Shinola ist eine gehobene Boutique, die Uhren, Fahrräder und Lederwaren im trendigen Stadtteil Midtown in Detroit verkauft. Herr Williams sagte, er und seine Frau hätten es überprüft, als das Geschäft 2014 eröffnet wurde.

Der Detektiv drehte das erste Stück Papier um. Es war ein Standbild aus einem Überwachungsvideo, das einen kräftigen Mann in Schwarz zeigt, der eine rote Mütze der St. Louis Cardinals trägt und vor einem Uhrendisplay steht. Fünf Zeitmesser im Wert von 3,800 US-Dollar wurden gestohlen.

"Bist du das?" fragte der Detektiv.

Das zweite Stück Papier war eine Nahaufnahme. Das Foto war verschwommen, aber es war eindeutig nicht Mr. Williams. Er nahm das Bild und hielt es neben sein Gesicht.

"Nein, das bin nicht ich", sagte Mr. Williams. "Du denkst, alle schwarzen Männer sehen gleich aus?"

Herr Williams wusste, dass er das fragliche Verbrechen nicht begangen hatte. Was er nicht wissen konnte, als er im Verhörraum saß, ist, dass sein Fall laut Experten für Technologie und Recht der erste bekannte Bericht darüber sein könnte, dass ein Amerikaner aufgrund einer fehlerhaften Übereinstimmung mit einem Gesichtserkennungsalgorithmus zu Unrecht festgenommen wurde .

Ein fehlerhaftes System

Eine landesweite Debatte tobt Rassismus in der Strafverfolgung. Im ganzen Land protestieren Millionen nicht nur gegen die Handlungen einzelner Beamter, sondern auch gegen die Voreingenommenheit in den Systemen, mit denen Gemeinschaften überwacht und Personen für die Strafverfolgung identifiziert werden.

Gesichtserkennungssysteme wurden von der Polizei für eingesetzt mehr als zwei Jahrzehnte. Aktuelle Studien von MIT und der National Institute of Standards and Technology, oder NIST, haben festgestellt, dass die Technologie bei weißen Männern zwar relativ gut funktioniert, die Ergebnisse für andere Bevölkerungsgruppen jedoch weniger genau sind, was teilweise auf die mangelnde Vielfalt der zur Entwicklung der zugrunde liegenden Datenbanken verwendeten Bilder zurückzuführen ist.

Letztes Jahr während einer öffentlichen Anhörung über die Verwendung von Gesichtserkennung in DetroitEin stellvertretender Polizeichef war unter denjenigen, die Bedenken äußerten. "In der Frage der Fehlalarme - das ist absolut sachlich und gut dokumentiert", sagte James White. "Das betrifft mich als afroamerikanischen Mann."

Diesen Monat, AmazonMicrosoft und IBM angekündigt, sie würden aufhören oder Pause ihre Gesichtserkennungsangebote für die Strafverfolgung. Die Gesten waren weitgehend symbolisch, da die Unternehmen keine großen Akteure in der Branche sind. Die Technologie, die die Polizeibehörden verwenden, wird von Unternehmen bereitgestellt, die keine bekannten Namen sind, wie Vigilant Solutions, Cognitec, NEC, Rank One Computing und Clearview AI.

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast
2 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
DawnieR

Vergiss schwarze Leute ... Ich würde eine fundierte Vermutung anstellen, dass dies auch für Asiaten NIE funktionieren würde !!

dP_Ted

Es musste passieren. Was mich dazu bringt, ist, dass die Person, die der Computer auswählt, manchmal ganz anders aussieht als die tatsächliche Person, aber es ist das, was der Computer sagt. smh