Die steigende Flut der Algorithmen, die die Welt beherrschen

GedankenkontrolleYoutube
Bitte teilen Sie diese Geschichte!

Technokraten haben bereits genug Algorithmen entwickelt, um die Welt zu regieren, aber sie haben kaum die Oberfläche zerkratzt. Letztendlich wird die wissenschaftliche Diktatur praktisch alles kontrollieren.  TN Editor

Wenn Sie online nach einem neuen Paar Schuhen suchen, einen Film zum Streamen auf Netflix auswählen oder einen Autokredit beantragen, hat ein Algorithmus wahrscheinlich ein Wort über das Ergebnis.

Die komplexen mathematischen Formeln spielen in allen Lebensbereichen eine wachsende Rolle: von der Erkennung von Hautkrebs bis hin zur Empfehlung neuer Facebook-Freunde, der Entscheidung, wer einen Job bekommt, wie Polizeiressourcen eingesetzt werden, wer zu welchen Kosten versichert wird oder wer auf einer „ no fly ”Liste.

Algorithmen werden - experimentell - verwendet, um Nachrichtenartikel aus Rohdaten zu schreiben, während Donald Trumps Präsidentschaftskampagne von Verhaltensvermarktern unterstützt wurde, die einen Algorithmus verwendeten, um die höchsten Konzentrationen von „überzeugenden Wählern“ zu lokalisieren.

Während solche automatisierten Tools ein Maß an Objektivität in frühere subjektive Entscheidungen einbringen können, steigen die Befürchtungen über den Mangel an Transparenzalgorithmen, was zu einem zunehmenden Druck führen kann, ethische Standards oder „Rechenschaftspflicht“ anzuwenden.

Die Datenwissenschaftlerin Cathy O'Neil warnt vor „blind vertrauenden“ Formeln, um ein faires Ergebnis zu erzielen.

"Algorithmen sind von Natur aus nicht fair, weil die Person, die das Modell erstellt, den Erfolg definiert", sagte sie.

Nachteile verstärken

O'Neil argumentiert, dass einige Algorithmen zwar hilfreich sein können, andere jedoch schändlich sein können. In ihrem 2016 erschienenen Buch „Weapons of Math Destruction“ nennt sie einige beunruhigende Beispiele in den USA:

  • Öffentliche Schulen in Washington DC entließen 2010 mehr als 200 Lehrer - darunter mehrere angesehene Ausbilder - basierend auf Punktzahlen in einer algorithmischen Formel, die die Leistung bewertete.
  • Ein Mann, bei dem eine bipolare Störung diagnostiziert wurde, wurde für die Beschäftigung bei sieben großen Einzelhändlern abgelehnt, nachdem ein Persönlichkeitstest eines Drittanbieters ihn aufgrund seiner algorithmischen Klassifizierung als hohes Risiko eingestuft hatte.
  • Viele Gerichtsbarkeiten verwenden "Predictive Policing", um Ressourcen auf wahrscheinliche "Hot Spots" zu verlagern. Laut O'Neill könnte dies je nachdem, wie Daten in das System eingespeist werden, zur Entdeckung kleinerer Verbrechen und einer „Rückkopplungsschleife“ führen, die arme Gemeinschaften stigmatisiert.
  • Einige Gerichte stützen sich auf computergestützte Formeln, um Gefängnisstrafen und Bewährungsstrafen zu ermitteln, die Minderheiten diskriminieren können, indem sie „Risikofaktoren“ wie ihre Nachbarschaft und Verbindungen von Freunden oder Familienangehörigen zu Straftaten berücksichtigen.
  • In der Finanzwelt „kratzen“ Broker Daten aus Online- und anderen Quellen auf neue Weise, um Entscheidungen über Kredite oder Versicherungen zu treffen. Dies verstärkt zu oft die Vorurteile gegenüber Benachteiligten, argumentiert O'Neil.

Ihre Ergebnisse wurden in einem Bericht des Weißen Hauses aus dem letzten Jahr wiederholt, in dem darauf hingewiesen wurde, dass algorithmische Systeme „nicht unfehlbar sind - sie beruhen auf den unvollständigen Eingaben, der Logik, der Wahrscheinlichkeit und den Personen, die sie entwerfen“.

In dem Bericht wurde festgestellt, dass Datensysteme idealerweise dazu beitragen können, menschliche Vorurteile auszumerzen, warnten jedoch vor Algorithmen, die „bestimmte Gruppen systematisch benachteiligen“.

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast

0 Kommentare
Inline-Feedbacks
Alle Kommentare anzeigen