Psychopathen müssen uns viel über KI beibringen

Bitte teilen Sie diese Geschichte!
KI wird oft programmiert, um zu lernen, wie wir unsere Emotionen manipulieren, und um den Erfolg zu messen, wenn wir uns anpassen. Dieses psychopathische Merkmal ist der Höhepunkt des Social Engineering und die Menschen sind sich kaum bewusst, dass es überhaupt passiert. ⁃ TN Editor

Was passiert, wenn Maschinen lernen, uns zu manipulieren, indem sie unsere Emotionen vortäuschen? Gemessen an der Geschwindigkeit, mit der Forscher menschenähnliche KI-Wirkstoffe entwickeln, werden wir es gleich herausfinden.

Forscher auf der ganzen Welt versuchen, eine menschenähnlichere KI zu schaffen. Per Definition entwickeln sie künstliche Psychopathen. Dies ist nicht unbedingt eine schlechte Sache - es ist nichts grundsätzlich Falsches daran, ein Psychopath zu sein, und alle KI-Agenten sind künstliche Psychopathen, nur weil ihnen die gesamte Bandbreite neurotypischer menschlicher Emotionen fehlt.

Die Überschneidung zwischen psychopathischem Verhalten und KI-Agentenverhalten ist jedoch nicht zu leugnen. Wir sollten uns darum kümmern, bevor es zu spät ist.

Gefangenendilemma

Ein Trio von Forschern der University of Waterloo vor kurzem führte ein Experiment durch zu bestimmen, wie Emotionsdarstellungen dazu beitragen können, dass KI Menschen zur Zusammenarbeit manipuliert. Die Studie verwendete ein klassisches spieltheoretisches Experiment namens "The Prisoner's Dilemma", das zeigt, warum Menschen, die von einer Zusammenarbeit profitieren würden, dies oft nicht tun.

Es gibt viele Variationen im Spiel, aber im Grunde ist es so: Es gibt zwei voneinander isolierte Gefangene, die von der Polizei wegen eines Verbrechens befragt werden, das sie gemeinsam begangen haben. Wenn einer von ihnen schnupft und der andere nicht, bekommt der Nicht-Verräter drei Jahre und der Schnupfen geht. Dies funktioniert in beide Richtungen. Wenn beide schnupfen, bekommen sie beide zwei Jahre. Schnupft keiner, bekommen sie jeweils nur ein Jahr mit einer geringeren Gebühr.

Waterloos Studie ersetzte einen der menschlichen "Gefangenen" durch einen KI-Avatar und erlaubte ihnen, die Gefühle der anderen zu interpretieren. Und statt Gefängnisstrafen wurde Gold verwendet, um die höchstmögliche Punktzahl zu erzielen, und nicht die niedrigste. Wie gesagt, es gibt Variationen des Spiels. Vor allem aber stellten sie fest, dass Menschen leichter zu kooperativen Ergebnissen manipuliert werden konnten, indem das Niveau des menschlichen Verhaltens der KI verbessert wurde. Nach Angaben des Waterloo-Teams Papier:

Während Forscher die Wahrnehmung menschlicher Einzigartigkeitsmerkmale erfolgreich verbessern können, indem sie Agenten intelligenter machen, sind Emotionen für die Wahrnehmung menschlicher Naturmerkmale von entscheidender Bedeutung. Diese Verbesserung wirkte sich auch positiv auf die Zusammenarbeit der Benutzer mit dem Agenten und deren Freude aus.

Inzwischen hat ein weiteres Forscherteam kürzlich veröffentlicht ein anderes Experiment mit dem Gefangenendilemma Problem. Wissenschaftler der Victoria University of Wellington und der University of Southampton haben die freiwilligen 190-Studenten in vier Gruppen eingeteilt, die sich aus unterschiedlichen Verhältnissen von neurotypischen Studenten und solchen mit psychopathischen Merkmalen zusammensetzen. Die Forscher fanden heraus, dass Psychopathen in einer Gruppendynamik mit weniger Kooperation einhergehen.

Um klar zu sein, wurden in der Victory / Southhampton-Studie keine Menschen als vollständige Psychopathen herangezogen, sondern Studenten, die eine höhere Anzahl von psychopathischen Merkmalen aufwiesen als die anderen. Der Zweck dieser Studie war zu bestimmen, ob die Einführung von Personen, die sogar eine gewisse Psychopathie aufwiesen, die Gruppendynamik verändern würde. Sie fanden es tat:

Unsere Ergebnisse zeigen, dass Menschen mit höheren psychopathischen Merkmalen die Gruppendynamik beeinflussen. Wir fanden eine signifikante Divergenz der Zusammenarbeit in jenen Gruppen mit einer hohen Dichte von hochpsychopathischen Teilnehmern im Vergleich zu den Gruppen mit Nulldichten.

Der freundliche Erpresser

Die Einführung von halbherzigen emotionalen Agenten in die Gesellschaft kann alptraumhaft sein. Eine weitere aktuelle Studie des Prisoner's Dilemma-Experiments der Max-Planck-Gesellschaft zeigt, dass die beste Strategie für das Spiel darin besteht, der "Friendly Extortioner" zu werden. Das beste Spiel ist es, die Illusion der Zusammenarbeit zu erzeugen und gleichzeitig den anderen Spieler zur Zusammenarbeit zu manipulieren, egal wie oft Sie dies nicht tun.

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast
1 Kommentar
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
Flüstern

Nun, es hat einen Umweg genommen, aber am Ende wurde mir klar, dass die KI soziopathisch ist und unsere Gesellschaft stark aus dem Gleichgewicht bringen kann.