Professoren warnen vor Gefahren durch Technologie, die Entscheidungen vom Menschen trifft

Bitte teilen Sie diese Geschichte!

Es braucht keinen Professor, um intuitiv zu verstehen, dass von Menschen geschaffene Programme nicht über die Vorurteile ihrer Schöpfer hinauswachsen können. Technokraten übersehen diesen Punkt und glauben, dass jede automatisierte Entscheidung effizienter und konsistenter ist als ein menschliches Urteil.  TN Editor

In Zukunft könnte Ihre Zukunft von einer Reihe sorgfältig berechneter Nullen und Einsen abhängen.

Wenn sich die Technologie verbessert, werden die Menschen weniger in Entscheidungen involviert, die unser Leben beeinflussen - und das ist nicht gerade eine gute Sache.

Da künstliche Intelligenz an Boden gewinnt, haben Hochschulprofessoren an der Universität von Massachusetts-Amherst ein Programm zum Testen von Software auf Voreingenommenheit und Diskriminierung entwickelt.

Ja, Rassendiskriminierung. Aber mehr als das. Entscheidungen im Gesundheitswesen. Kreditentscheidungen. Zum Teufel, auch wie Amazon die Paketversandgebühren festlegt.

"Heutzutage bestimmt die Software, wer einen Kredit erhält oder eingestellt wird, berechnet Risikobewertungen, anhand derer entschieden werden kann, wer ins Gefängnis kommt und wer freigelassen wird, und hilft bei der Diagnose und Behandlung von medizinischen Patienten." gemäß an die Entwickler des Programms.

Damit ist es kritisch, dass "Software Gruppen oder Einzelpersonen nicht diskriminiert", argumentieren die Forscher und fügten hinzu, dass ihr Studienbereich "unterbewertet" ist und "unzählige Beispiele für unfaire Software aufgetaucht sind."

In einem wissenschaftlichen Artikel veröffentlicht für eine kommende Softwareentwicklung KonferenzDie Informatiker Alexandra Meliou und Yuriy Brun, die das Programm zusammen mit der Doktorandin Sainyam Galhotra entwickelt haben, erläutern die "wachsende Besorgnis" hinsichtlich der Diskriminierung von Software.

In der Arbeit prognostizieren die beiden Professoren, welchen Einfluss Software in Zukunft auf das menschliche Leben haben wird, und argumentieren, dass Software derzeit eine übergroße Rolle in der Gesellschaft spielt.

"In Zukunft wird es immer wichtiger, Fairness in der Software zu gewährleisten", heißt es in dem Papier.

Die Wissenschaftler verwendeten Beispiele, die die Voreingenommenheit gegenüber Reichen und Unterdrückten veranschaulichen.

Eines der Beispiele für Software-Diskriminierung von Brun und Meliou ist die von Amazon.com verwendete Programmierung, um zu bestimmen, welche geografischen Gebiete am selben Tag kostenlos geliefert werden. Nach der Einführung des Programms im letzten Jahr war es soweit angeblich Diese Minderheitenviertel erhielten die Vergünstigung mit einer viel geringeren Rate als überwiegend weiße Viertel.

Die Autoren heben auch hervor, wie im öffentlichen Sektor eingesetzte Software Verzerrungen projizieren kann, und beleuchten die in einer Reihe von Staaten verwendete Technologie, mit der die Wahrscheinlichkeit berechnet wird, dass ein Krimineller weitere Straftaten begeht. Laut den Forschern wurde festgestellt, dass die Software "schwarze Angeklagte fälschlicherweise als zukünftige Kriminelle kennzeichnet und sie auf diese Weise fälschlicherweise fast doppelt so häufig wie weiße Angeklagte kennzeichnet".

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast

1 Kommentar
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
M11S

In unserem auf „freien“ Märkten basierenden Wirtschaftssystem des Kapitalismus ist der Marktanteil bereits zu 90% künstlich (HFTs).