Pre-Crime AI: "Es hat uns nichts gesagt, was wir nicht wussten"

Bitte teilen Sie diese Geschichte!
Es ist ermutigend, dass einige Polizeibehörden bereits damit beginnen, KI-Systeme vor der Kriminalität einzustellen, weil sie nicht die beabsichtigten Ergebnisse erzielt haben, geschweige denn „kriminelle Aktivitäten verhindern“. ⁃ TN Editor

Das Los Angeles Police Department machte einen revolutionären Sprung in 2010, als es eines der ersten war, das Datentechnologie und Informationen über vergangene Verbrechen einsetzte, um zukünftige rechtswidrige Aktivitäten vorherzusagen. Andere Abteilungen im ganzen Land setzten bald vorausschauende Polizeitechniken ein.

Das von der LAPD mitgetragene und vielbeachtete Tool ist jedoch in den letzten 18-Monaten unter Beschuss geraten. Zahlreiche Abteilungen haben die Software gelöscht, weil es ihnen nicht geholfen hat, die Kriminalität zu reduzieren, und im Wesentlichen Informationen geliefert, die bereits von Polizeibeamten auf den Straßen gesammelt wurden.

Nach drei Jahren "fanden wir es nicht effektiv", sagte die Polizeisprecherin von Palo Alto, Janine De la Vega. „Wir haben keinen Wert daraus gezogen. Es hat uns nicht geholfen, das Verbrechen aufzuklären. “

Die Polizeibehörde von Mountain View, Kalifornien, gab mehr als 60,000 USD für das Programm zwischen 2013 und 2018 aus.

"Wir haben die Software getestet und den Service für einige Jahre abonniert, aber letztendlich waren die Ergebnisse uneinheitlich und wir haben den Service im Juni 2018 eingestellt", sagte Sprecherin Katie Nelson in einer Erklärung.

Das Programm sollte vorhersagen, wo und wann Straftaten in den nächsten 12-Stunden wahrscheinlich sind. Der Algorithmus der Software untersucht 10-Daten aus mehreren Jahren, einschließlich der Arten von Straftaten sowie der Daten, Zeiten und Orte, an denen sie aufgetreten sind.

Abgesehen von den Bedenken der Strafverfolgungsbehörden werden die datengesteuerten Programme auch zunehmend von Gruppen für Datenschutz und bürgerliche Freiheiten geprüft, denen zufolge die Taktik zu einer stärkeren Überwachung der schwarzen und lateinamerikanischen Gemeinschaften führt.

Im März kam die interne Revision des LAPD zu dem Schluss, dass nicht genügend Daten vorlagen, um festzustellen, ob die PredPol-Software, die von einem UCLA-Professor in Zusammenarbeit mit dem LAPD entwickelt wurde, zur Reduzierung der Kriminalität beitrug. LAPD-Generalinspektor Mark Smith sagte, es gebe auch Probleme mit einer Komponente des Programms, mit der die Orte einiger Eigentumsverbrechen lokalisiert werden.

Als Reaktion darauf beendete der Polizeichef von Los Angeles, Michel Moore, ein umstrittenes Programm, das darauf abzielte, Personen zu identifizieren, die am ehesten Gewaltverbrechen begehen würden, und kündigte an, er werde andere ändern.

Aber Moore verteidigte die PredPol-Software und sagte, sie habe die Bemühungen der Abteilung zur Aufdeckung von Eigentumsverbrechen verstärkt und sei genauer als menschliche Analysten, um potenzielle Krisenherde zu lokalisieren.

"Ich glaube daran", sagte Moore. "Ich glaube an standortbezogene Strategien."

Brian MacDonald, Vorstandsvorsitzender von PredPol, sagte, die Software sei niemals als Lösung zur Reduzierung und Verhütung von Kriminalität gedacht.

"Wir präsentieren ihnen eine Reihe von Werkzeugen", sagte er. „Es ist praktisch unmöglich, einen Rückgang oder Anstieg der Kriminalität auf eine Sache genau zu bestimmen. Ich wäre eher überrascht und misstrauisch, wenn der Generalinspekteur PredPol als weniger strafbar ansieht. “

Geringere Erwartungen

Einige Polizeiführer und Akademiker erwarteten, dass vorausschauende Technologien die Strafverfolgung revolutionieren würden, indem sie kriminelle Aktivitäten verhindern würden.

Das ist nicht passiert.

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast

1 Kommentar
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen