Im Mai von 2010 forderte der Bürgermeister von New Orleans das US-Justizministerium auf, die Stadtpolizei (NOPD) zu untersuchen. Zehn Monate später bot das DOJ seine Blasenbildung: Das NOPD hatte während seiner Überprüfung ab 2005 wiederholt gegen Verfassungs- und Bundesrecht verstoßen.
Es setzte exzessive Gewalt ein und ging unverhältnismäßig häufig gegen schwarze Bewohner vor; gezielte ethnische Minderheiten, nicht englischsprachige Muttersprachler und LGBTQ-Personen; und versäumte es, Gewalt gegen Frauen anzugehen. Die Probleme, sagte Der damalige stellvertretende Generalstaatsanwalt Thomas Perez war „ernsthaft, breit gefächert, systemisch und tief in der Kultur der Abteilung verwurzelt“.
Trotz der verstörenden Funde trat die Stadt ein geheime Partnerschaft Nur ein Jahr später wird das Data-Mining-Unternehmen Palantir ein Predictive-Policing-System einführen. Das System verwendete historische Daten, einschließlich Verhaftungsaufzeichnungen und elektronischer Polizeiberichte, um Straftaten vorherzusagen und Strategien für die öffentliche Sicherheit zu entwickeln Firma funktioniert Stadtverwaltung Materialien. Zu keinem Zeitpunkt deuteten diese Materialien auf Bemühungen hin, die Daten zu bereinigen oder zu ändern, um die vom DOJ aufgedeckten Verstöße zu beheben. Höchstwahrscheinlich wurden die beschädigten Daten direkt in das System eingespeist, was die diskriminierenden Praktiken der Abteilung verstärkte.
Prädiktive Überwachungsalgorithmen werden in Städten in den USA immer häufiger eingesetzt. Obwohl der Mangel an Transparenz es schwierig macht, genaue Statistiken zu ermitteln, ist PredPol, ein führender Anbieter, rühmt sich dass es dabei hilft, 1 bei 33-Amerikanern zu "schützen". Die Software wird oft angepriesen, um dünn besetzte Polizeidienststellen dabei zu unterstützen, effizientere, datengesteuerte Entscheidungen zu treffen.
Neue Untersuchungen legen jedoch nahe, dass nicht nur New Orleans diese Systeme mit "schmutzigen Daten" trainiert hat Krepppapier Forscher des AI Now Institute, eines Forschungszentrums, das die sozialen Auswirkungen künstlicher Intelligenz untersucht, stellten fest, dass das Problem in den untersuchten Gerichtsbarkeiten weit verbreitet ist. Dies hat erhebliche Auswirkungen auf die Wirksamkeit der vorausschauenden Polizeiarbeit und anderer in der Strafjustiz verwendeter Algorithmen.
„Ihr System ist nur so gut wie die Daten, mit denen Sie es trainieren“, sagt Kate Crawford, Mitbegründerin und Co-Direktorin von AI Now und Autorin der Studie. „Wenn die Daten selbst nicht korrekt sind, werden mehr Polizeiressourcen auf dieselben überwachten und oft rassistisch ausgerichteten Gemeinschaften konzentriert. Was Sie also getan haben, ist eine Art von Technologie-Waschen, bei der Leute, die diese Systeme verwenden, davon ausgehen, dass sie neutraler oder objektiver sind, aber tatsächlich eine Form von Verfassungswidrigkeit oder Illegalität verankert haben. “
Die Forscher untersuchten die 13-Gerichtsbarkeiten und konzentrierten sich dabei auf diejenigen, die vorausschauende Polizeisysteme verwendet haben und Gegenstand einer von der Regierung in Auftrag gegebenen Untersuchung waren. Die letztgenannte Anforderung stellte sicher, dass die Polizeipraktiken über rechtlich nachprüfbare Unterlagen verfügten. In neun der Gerichtsbarkeiten fanden sie starke Beweise dafür, dass die Systeme auf „schmutzige Daten“ geschult wurden.
Das Problem bestand nicht nur darin, dass überproportional viele Minderheiten angesprochen wurden, wie in New Orleans. In einigen Fällen pflegten die Polizeibehörden die Absicht, Daten zu manipulieren oder zu fälschen, und standen unter starkem politischem Druck, die offiziellen Kriminalitätsraten zu senken. In New York zum Beispiel baten Befehlshaber der Bezirksregierung die Opfer an Tatorten regelmäßig, keine Beschwerden einzureichen, um die Kriminalstatistik künstlich zu entleeren. Einige Polizisten pflanzten sogar Drogen gegen unschuldige Menschen, um ihre Verhaftungsquoten einzuhalten. In modernen Predictive-Policing-Systemen, die sich auf maschinelles Lernen stützen, um Verbrechen vorherzusagen, werden diese beschädigten Datenpunkte zu legitimen Prädiktoren.
GIGO! Müll in; Müll raus!