Man könnte meinen, ein Computer wäre ein unvoreingenommener und fairer Richter, aber eine neue Studie kommt zu dem Schluss, dass es besser wäre, wenn man sein Schicksal in die Hände von Menschen legt. Forscher des MIT stellen fest, dass künstliche Intelligenz (KI) dazu neigt, strengere und härtere Urteile zu fällen als Menschen, wenn es um Personen geht, die gegen die Regeln verstoßen. Kurz gesagt: KI ist nicht bereit, Menschen ungeschoren davonkommen zu lassen, wenn sie gegen das Gesetz verstoßen!
Forscher haben Bedenken geäußert, dass KI abhängig von den Informationswissenschaftlern, mit denen sie programmiert wird, zu strenge Strafen verhängen könnte. Wenn die KI strikt auf der Grundlage von Regeln und ohne jegliche menschliche Nuancen programmiert wird, reagiert sie tendenziell härter als wenn sie auf der Grundlage menschlicher Reaktionen programmiert wird.
Diese von einem Team am Massachusetts Institute of Technology durchgeführte Studie untersuchte, wie KI wahrgenommene Verstöße gegen einen bestimmten Kodex interpretieren würde. Sie fanden heraus, dass die effektivsten Daten zum Programmieren von KI normative Daten sind, bei denen der Mensch bestimmt hat, ob Es wurde gegen eine bestimmte Regel verstoßen. Viele Modelle sind jedoch fälschlicherweise mit beschreibenden Daten programmiert, in denen Menschen die tatsächlichen Merkmale einer Situation kennzeichnen und die KI feststellt, ob gegen einen Code verstoßen wurde.
In der Studie sammelte das Team Bilder von Hunden, die möglicherweise gegen eine Wohnungsordnung verstoßen, die aggressive Rassen aus dem Gebäude verbannt. Anschließend wurden die Gruppen gebeten, normative und beschreibende Antworten zu geben.
Das beschreibende Team war nicht über die allgemeinen Richtlinien zu Hunden informiert und wurde gebeten, herauszufinden, ob drei sachliche Elemente, wie etwa die Aggressivität des Hundes, in dem Bild oder Text vorhanden waren. Ihre Antworten halfen bei der Urteilsbildung. Wenn ein Nutzer behauptete, das Foto zeige einen aggressiven Hund, galt dies als Verstoß gegen die Richtlinie. Andererseits wurde die normative Gruppe über die Regeln zu aggressiven Hunden informiert und gebeten, festzustellen, ob jedes Bild gegen die Regel verstößt und wenn ja, warum.
Die Wahrscheinlichkeit, dass Teilnehmer einen Codeverstoß identifizierten, war mit der deskriptiven Methode um 20 Prozent höher als mit der normativen Methode. Wenn die beschreibenden Daten zum Hundeverhalten zur Programmierung verwendet worden wären ein KI-Modell, wäre es wahrscheinlicher, dass es empfindliche Strafen verhängt.
Diese vergrößern Ungenauigkeiten gegenüber realen Szenarien könnte erhebliche Auswirkungen haben. Wenn beispielsweise ein deskriptives Modell verwendet wird, um vorherzusagen, ob eine Person dies tun kann das gleiche Verbrechen begehen mehr als einmal kann es härtere Urteile fällen als ein Mensch und zu höheren Kautionen oder längeren Strafen führen. Daher plädieren die Experten für mehr Datentransparenz und argumentieren, dass das Verständnis, wie Daten erfasst werden, dabei helfen kann, ihre potenzielle Verwendung zu bestimmen.
„Die meisten Forscher im Bereich KI/maschinelles Lernen gehen davon aus, dass menschliche Urteile in Bezug auf Daten und Etiketten voreingenommen sind. Aber unsere Ergebnisse deuten auf ein noch besorgniserregenderes Problem hin: Diese Modelle reproduzieren nicht einmal bereits voreingenommene menschliche Urteile, weil die Daten, auf denen sie trainiert werden, fehlerhaft sind“, sagt Marzyeh Ghassemi, Assistenzprofessorin und Leiterin der Healthy ML Group in the Computer Labor für Wissenschaft und künstliche Intelligenz (CSAIL), in a Universitätsfreigabe.
„Die Lösung besteht darin, das anzuerkennen, wenn wir uns reproduzieren wollen menschliches Urteil, sollten wir nur die in diesem Zusammenhang erfassten Daten verwenden. Andernfalls werden wir mit Systemen enden, die äußerst strenge Moderationen vorschreiben, die weitaus strenger sind als das, was Menschen durchsetzen würden. Menschen würden Nuancen erkennen oder Unterscheidungen treffen, diese Modelle hingegen nicht“, erklärt Ghassemi weiter.
In der Studie veröffentlicht in Wissenschaft Fortschritte, testete das Team drei zusätzliche Datensätze. Die Ergebnisse variierten und reichten von einer um acht Prozent erhöhten Wahrscheinlichkeit, einen Regelverstoß anhand beschreibender Antworten für einen Verstoß gegen die Kleiderordnung zu erkennen, bis zu einer um 20 Prozent höheren Wahrscheinlichkeit für die aggressiven Hundebilder.
„Vielleicht unterscheidet sich die Art und Weise, wie Menschen über Regelverstöße denken, von der Art und Weise, wie sie über deskriptive Daten denken. Im Allgemeinen sind normative Entscheidungen tendenziell nachsichtiger“, sagt Hauptautorin Aparna Balagopalan. „Die Daten sind wirklich wichtig. Beim Training von Modellen zur Erkennung von Regelverstößen ist es wichtig, den Trainingskontext mit dem Bereitstellungskontext in Einklang zu bringen.“
Der Zukunftsplan des Teams besteht darin, die Auswirkungen der Beteiligung von Fachleuten wie Anwälten und Ärzten an der Dateneingabe zu untersuchen.
[…] Lesen Sie mehr: Die Regeln brechen? KI wird Ihnen keine Gnade zeigen […]
[…] Lesen Sie mehr: Die Regeln brechen? KI wird Ihnen keine Gnade zeigen […]
[…] Die Regeln brechen? KI wird Ihnen keine Gnade zeigen […]
[…] Die Regeln brechen? KI wird Ihnen keine Gnade zeigen […]