Die Regeln brechen? KI wird Ihnen keine Gnade zeigen

RoboCop, Orion-Bilder
Bitte teilen Sie diese Geschichte!
KI tritt als Richter, Geschworene und Henker auf. Wenn Sie gegen die Regeln verstoßen, gibt es keine Gnade und kein menschliches Verständnis. KI ist nicht in der Lage, menschliches Verständnis oder Emotionen zu vermitteln. Die Bestrafung erfolgt schnell und es gibt keine Berufung oder andere Mittel, um Ihren Namen reinzuwaschen. Science-Fiction hat sich mehrfach damit beschäftigt, etwa in RoboCop, Judge Dredd und dem Minority Report. ⁃ TN-Editor

Man könnte meinen, ein Computer wäre ein unvoreingenommener und fairer Richter, aber eine neue Studie kommt zu dem Schluss, dass es besser wäre, wenn man sein Schicksal in die Hände von Menschen legt. Forscher des MIT stellen fest, dass künstliche Intelligenz (KI) dazu neigt, strengere und härtere Urteile zu fällen als Menschen, wenn es um Personen geht, die gegen die Regeln verstoßen. Kurz gesagt: KI ist nicht bereit, Menschen ungeschoren davonkommen zu lassen, wenn sie gegen das Gesetz verstoßen!

Forscher haben Bedenken geäußert, dass KI abhängig von den Informationswissenschaftlern, mit denen sie programmiert wird, zu strenge Strafen verhängen könnte. Wenn die KI strikt auf der Grundlage von Regeln und ohne jegliche menschliche Nuancen programmiert wird, reagiert sie tendenziell härter als wenn sie auf der Grundlage menschlicher Reaktionen programmiert wird.

Diese von einem Team am Massachusetts Institute of Technology durchgeführte Studie untersuchte, wie KI wahrgenommene Verstöße gegen einen bestimmten Kodex interpretieren würde. Sie fanden heraus, dass die effektivsten Daten zum Programmieren von KI normative Daten sind, bei denen der Mensch bestimmt hat, ob Es wurde gegen eine bestimmte Regel verstoßen. Viele Modelle sind jedoch fälschlicherweise mit beschreibenden Daten programmiert, in denen Menschen die tatsächlichen Merkmale einer Situation kennzeichnen und die KI feststellt, ob gegen einen Code verstoßen wurde.

In der Studie sammelte das Team Bilder von Hunden, die möglicherweise gegen eine Wohnungsordnung verstoßen, die aggressive Rassen aus dem Gebäude verbannt. Anschließend wurden die Gruppen gebeten, normative und beschreibende Antworten zu geben.

Das beschreibende Team war nicht über die allgemeinen Richtlinien zu Hunden informiert und wurde gebeten, herauszufinden, ob drei sachliche Elemente, wie etwa die Aggressivität des Hundes, in dem Bild oder Text vorhanden waren. Ihre Antworten halfen bei der Urteilsbildung. Wenn ein Nutzer behauptete, das Foto zeige einen aggressiven Hund, galt dies als Verstoß gegen die Richtlinie. Andererseits wurde die normative Gruppe über die Regeln zu aggressiven Hunden informiert und gebeten, festzustellen, ob jedes Bild gegen die Regel verstößt und wenn ja, warum.

Die Wahrscheinlichkeit, dass Teilnehmer einen Codeverstoß identifizierten, war mit der deskriptiven Methode um 20 Prozent höher als mit der normativen Methode. Wenn die beschreibenden Daten zum Hundeverhalten zur Programmierung verwendet worden wären ein KI-Modell, wäre es wahrscheinlicher, dass es empfindliche Strafen verhängt.

Diese vergrößern Ungenauigkeiten gegenüber realen Szenarien könnte erhebliche Auswirkungen haben. Wenn beispielsweise ein deskriptives Modell verwendet wird, um vorherzusagen, ob eine Person dies tun kann das gleiche Verbrechen begehen mehr als einmal kann es härtere Urteile fällen als ein Mensch und zu höheren Kautionen oder längeren Strafen führen. Daher plädieren die Experten für mehr Datentransparenz und argumentieren, dass das Verständnis, wie Daten erfasst werden, dabei helfen kann, ihre potenzielle Verwendung zu bestimmen.

„Die meisten Forscher im Bereich KI/maschinelles Lernen gehen davon aus, dass menschliche Urteile in Bezug auf Daten und Etiketten voreingenommen sind. Aber unsere Ergebnisse deuten auf ein noch besorgniserregenderes Problem hin: Diese Modelle reproduzieren nicht einmal bereits voreingenommene menschliche Urteile, weil die Daten, auf denen sie trainiert werden, fehlerhaft sind“, sagt Marzyeh Ghassemi, Assistenzprofessorin und Leiterin der Healthy ML Group in the Computer Labor für Wissenschaft und künstliche Intelligenz (CSAIL), in a Universitätsfreigabe.

„Die Lösung besteht darin, das anzuerkennen, wenn wir uns reproduzieren wollen menschliches Urteil, sollten wir nur die in diesem Zusammenhang erfassten Daten verwenden. Andernfalls werden wir mit Systemen enden, die äußerst strenge Moderationen vorschreiben, die weitaus strenger sind als das, was Menschen durchsetzen würden. Menschen würden Nuancen erkennen oder Unterscheidungen treffen, diese Modelle hingegen nicht“, erklärt Ghassemi weiter.

In der Studie veröffentlicht in Wissenschaft Fortschritte, testete das Team drei zusätzliche Datensätze. Die Ergebnisse variierten und reichten von einer um acht Prozent erhöhten Wahrscheinlichkeit, einen Regelverstoß anhand beschreibender Antworten für einen Verstoß gegen die Kleiderordnung zu erkennen, bis zu einer um 20 Prozent höheren Wahrscheinlichkeit für die aggressiven Hundebilder.

„Vielleicht unterscheidet sich die Art und Weise, wie Menschen über Regelverstöße denken, von der Art und Weise, wie sie über deskriptive Daten denken. Im Allgemeinen sind normative Entscheidungen tendenziell nachsichtiger“, sagt Hauptautorin Aparna Balagopalan. „Die Daten sind wirklich wichtig. Beim Training von Modellen zur Erkennung von Regelverstößen ist es wichtig, den Trainingskontext mit dem Bereitstellungskontext in Einklang zu bringen.“

Der Zukunftsplan des Teams besteht darin, die Auswirkungen der Beteiligung von Fachleuten wie Anwälten und Ärzten an der Dateneingabe zu untersuchen.

Lesen Sie die ganze Geschichte hier…

Über den Herausgeber

Patrick Wood
Patrick Wood ist ein führender und kritischer Experte für nachhaltige Entwicklung, grüne Wirtschaft, Agenda 21, Agenda 2030 und historische Technokratie. Er ist Autor von Technocracy Rising: Das trojanische Pferd der globalen Transformation (2015) und Co-Autor von Trilaterals Over Washington, Band I und II (1978-1980) mit dem verstorbenen Antony C. Sutton.
Abonnieren
Benachrichtigung von
Gast

4 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen

[…] Lesen Sie mehr: Die Regeln brechen? KI wird Ihnen keine Gnade zeigen […]

[…] Lesen Sie mehr: Die Regeln brechen? KI wird Ihnen keine Gnade zeigen […]

[…] Die Regeln brechen? KI wird Ihnen keine Gnade zeigen […]

[…] Die Regeln brechen? KI wird Ihnen keine Gnade zeigen […]