AI kann dich ohne menschlichen Input hassen

Bitte teilen Sie diese Geschichte!
image_pdfimage_print
Mehrere kürzlich durchgeführte Studien haben gezeigt, dass Deep Learning-KI genau wie Menschen Vorurteile entwickeln kann. Das Problem ist, dass die KI völlig frei von menschlichen Emotionen ist und eine schizoide Persönlichkeitsstörung modelliert. ⁃ TN Editor

Was ist, wenn ein Roboter entscheidet, dass er dich hasst?

Das mag wie eine dumme Frage erscheinen, aber laut Forschung erfordert die Entwicklung von Vorurteilen gegenüber anderen kein hohes Maß an kognitiven Fähigkeiten und könnte leicht von Robotern und anderen künstlich intelligenten Maschinen gezeigt werden.

Die Studium, Experten aus den Bereichen Informatik und Psychologie der Universität Cardiff und des MIT haben herausgefunden, dass Gruppen autonomer Maschinen Vorurteile aufzeigen können, indem sie das Verhalten einfach identifizieren, kopieren und voneinander lernen. Die Ergebnisse wurden in der Zeitschrift veröffentlicht Natur.

Roboter sind ähnlich wie Menschen in der Lage, Vorurteile auszubilden.

In eine Pressemitteilung, erklärte das Forscherteam, dass, obwohl es den Anschein hat, dass die menschliche Kognition erforderlich ist, um Meinungen zu bilden und andere zu stereotypisieren, dies anscheinend nicht der Fall ist. Vorurteile scheinen kein menschenspezifisches Phänomen zu sein.

Einige Arten von Computeralgorithmen haben bereits Vorurteile wie Rassismus und Sexismus gezeigt, die die Maschinen aus öffentlichen Aufzeichnungen und anderen von Menschen erzeugten Daten lernen. In zwei früheren Fällen zeigte AI solche Vorurteile, Microsoft Chatbots Tay und zum Zo wurden geschlossen, nachdem man ihnen beigebracht hatte, rassistische und sexistische Äußerungen in den sozialen Medien zu verbreiten.

Dies bedeutet, dass Roboter genauso hasserfüllt sein können wie Menschen. Und da sie tausende Male schlauer sind als wir, können Sie sich die Zukunft vorstellen, wenn sie eine Vorurteile gegenüber der Menschheit entwickeln?

Es ist keine menschliche Eingabe erforderlich.

Es ist keine Anleitung von Menschen erforderlich, damit Roboter lernen, bestimmte Menschen nicht zu mögen.

Diese Studie hat jedoch gezeigt, dass KI keine Provokation und Inspiration von Trollen benötigt, um Vorurteile zu zeigen: Sie ist in der Lage, sie alle für sich zu formen.

Um die Forschung durchzuführen, erstellte das Team Computersimulationen darüber, wie vorurteilsvolle Personen eine Gruppe bilden und miteinander interagieren können. Sie kreierten ein Spiel mit „Geben und Nehmen“, bei dem jeder KI-Bot eine Entscheidung traf, ob er an eine andere Person in seiner eigenen Arbeitsgruppe oder an eine andere Gruppe spenden wollte oder nicht. Die Entscheidungen wurden auf der Grundlage des Ansehens jedes Einzelnen und seiner Spendenstrategie getroffen, einschließlich seines Ausmaßes an Vorurteilen gegenüber Einzelpersonen in externen Gruppen.

Als das Spiel fortschritt und ein Supercomputer Tausende von Simulationen aufstellte, lernte jeder einzelne neue Strategien, indem er andere innerhalb seiner eigenen Gruppe oder der gesamten Bevölkerung kopierte.

Mitautor der Studie Professor Roger Whitaker vom Crime and Security Research Institute der Universität Cardiff und der School of Computer Science and Informatics, sagte der Ergebnisse:

Wenn wir diese Simulationen Tausende und Abertausende Male durchführen, bekommen wir ein Verständnis dafür, wie sich Vorurteile entwickeln und welche Bedingungen sie fördern oder behindern.

Die Ergebnisse beziehen Einzelpersonen ein, die ihre Vorurteile aktualisieren, indem sie bevorzugt diejenigen kopieren, die eine höhere kurzfristige Auszahlung erzielen, was bedeutet, dass Diese Entscheidungen erfordern nicht unbedingt fortgeschrittene kognitive Fähigkeiten.

Es ist denkbar, dass autonome Maschinen mit der Fähigkeit, sich mit Diskriminierung zu identifizieren und andere zu kopieren, in Zukunft für schädliche Phänomene anfällig sein könnten, die wir in der menschlichen Bevölkerung beobachten.

Viele der KI-Entwicklungen, die wir beobachten, beinhalten Autonomie und Selbstkontrolle, was bedeutet, dass das Verhalten von Geräten auch von anderen beeinflusst wird. Fahrzeuge und das Internet der Dinge sind zwei aktuelle Beispiele. Unsere Studie gibt einen theoretischen Einblick, in dem simulierte Agenten in regelmäßigen Abständen andere nach Ressourcen fragen. (Quelle)

Autonomie und Selbstkontrolle. Ist das nicht das, was in passiert ist? das Terminator-Franchise?

Musk hat hinzugefügt, "Mit künstlicher Intelligenz rufen wir den Dämon herbei."

Lesen Sie die ganze Geschichte hier…

Treten Sie unserer Mailingliste bei!


Abonnieren
Benachrichtigung von
Gast
1 Wie
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen