Algorithmen können vorgeben, ob Sie eine Hypothek erhalten oder wie viel Sie für eine Versicherung bezahlen. Aber manchmal sind sie falsch - und manchmal sind sie darauf ausgelegt, zu täuschen.
Viele Algorithmen gehen ungewollt kaputt. Einige von ihnen sind jedoch strafbar. Algorithmen sind formale Regeln, die normalerweise in Computercode geschrieben sind und anhand historischer Muster Vorhersagen über zukünftige Ereignisse treffen. Um einen Algorithmus zu trainieren, müssen Sie historische Daten sowie eine Definition des Erfolgs bereitstellen.
In den letzten Jahrzehnten haben Algorithmen die Finanzen übernommen. Handelsalgorithmen verwenden historische Daten, um Marktbewegungen vorherzusagen. Der Erfolg dieses Algorithmus ist eine vorhersehbare Marktbewegung, und der Algorithmus ist wachsam gegenüber Mustern, die in der Vergangenheit unmittelbar vor dieser Bewegung aufgetreten sind. Finanzrisikomodelle nutzen historische Marktveränderungen auch, um katastrophale Ereignisse in einem globaleren Sinne vorherzusagen, also nicht für eine einzelne Aktie, sondern für einen gesamten Markt. Das Risikomodell für hypothekarisch besicherte Wertpapiere war - absichtlich - bekanntermaßen schlecht, und das Vertrauen in diese Modelle kann dafür verantwortlich gemacht werden ein Großteil des Ausmaßes und der Folgeschäden, die durch die 2008-Finanzkrise verursacht wurden.
[the_ad id = "11018"]Seit 2008 haben wir weniger von Finanzalgorithmen als vielmehr von Big-Data-Algorithmen gehört. Das Ziel dieser neuen Generation von Algorithmen wurde von abstrakten Märkten auf Einzelpersonen verlagert. Die zugrunde liegende Funktionalität ist jedoch dieselbe: Sammeln Sie historische Daten über Personen, profilieren Sie ihr Verhalten online, ihren Standort oder beantworten Sie Fragebögen und verwenden Sie diesen umfangreichen Datensatz, um zukünftige Einkäufe, Abstimmungsverhalten oder Arbeitsmoral vorherzusagen.
Die jüngste Verbreitung von Big-Data-Modellen ist für den Durchschnittsbürger weitgehend unbemerkt geblieben, aber man kann mit Sicherheit sagen, dass die wichtigsten Momente, in denen Menschen mit großen bürokratischen Systemen interagieren, jetzt einen Algorithmus in Form eines Bewertungssystems beinhalten. Englisch: www.mjfriendship.de/en/index.php?op...39&Itemid=32 Auf die Uni gehen, einen Job bekommen, als Arbeiter beurteilt werden, eine Kreditkarte oder eine Versicherung bekommen, abstimmen und sogar die Polizei werden in vielen Fällen algorithmisch durchgeführt. Darüber hinaus ist die Technologie, die in diese systematischen Entscheidungen eingeführt wird, selbst für ihre Urheber weitgehend undurchsichtig und hat sich bisher einer sinnvollen Regulierung weitgehend entzogen, selbst wenn sie fehlschlägt. Umso wichtiger und dringender ist die Frage, welche dieser Algorithmen für uns arbeiten.
Ich habe eine vierstufige Hierarchie, wenn es um schlechte Algorithmen geht. An der Spitze stehen die unbeabsichtigten Probleme, die kulturelle Vorurteile widerspiegeln. Als beispielsweise Harvard-Professorin Latanya Sweeney feststellte, dass Google nach Namen sucht, die als schwarz empfunden werden generierte Anzeigen im Zusammenhang mit kriminellen AktivitätenWir können davon ausgehen, dass kein Google-Ingenieur rassistischen Code geschrieben hat. Tatsächlich wurden die Anzeigen von früheren Nutzern der Google-Suche als schlecht eingestuft. Diese klickten bei der Suche nach einem schwarz klingenden Namen eher auf eine Strafregisteranzeige. Ein weiteres Beispiel: die Google-Bildsuchergebnis für „unprofessional hair“, die fast ausschließlich schwarze Frauen zurückbringt, wird durch die Personen, die im Laufe der Zeit Suchergebnisse veröffentlichen oder darauf klicken, auf ähnliche Weise trainiert.
Die nummerierten wirtschaftlichen „institutionellen Einheiten“ sind bereits in jungen Jahren so programmiert, dass sie auf bestimmte Reize mit der Erwartung reagieren, bestimmte Belohnungen zu erhalten, auch wenn die Belohnung nur von nominalem Wert ist (nur im Namen). Diese Programmierung zur Verhaltensänderung wird in einer Wettbewerbsumgebung installiert, in der Intelligence Quotient (IQ) das ultimative Ziel ist. IQ ist die Fähigkeit der institutionellen Einheit, Daten und Informationen zu speichern und in der Warteschlange oder bei Bedarf abzurufen. Es macht keinen Unterschied, ob die Daten und Informationen falsch, verdorben oder sogar von Absurditäten durchdrungen sind. Die Fakultäten der Vernunft, die sich wesentlich vom IQ unterscheiden, werden nicht benötigt... Lesen Sie mehr »