Roboter aufziehen: Kann man der KI durch Erziehungsfähigkeiten Moral beibringen?

Youtube
Bitte teilen Sie diese Geschichte!

Es ist eine düstere Fantasie, künstliche Intelligenz und Roboter als empfindungsfähige Menschen zu behandeln, wenn sie es nicht sind oder jemals sein können. Während japanische Männer Sex mit Silikonpuppen haben, versuchen andere, Robotern mit Hilfe von „Erziehungsfähigkeiten“ Moral beizubringen.  TN Editor

Intelligente Maschinen, lange versprochen und nie ausgeliefert, sind endlich da am Horizont. Ausreichend intelligente Roboter werden in der Lage sein, unabhängig von der menschlichen Kontrolle zu arbeiten. Sie werden in der Lage sein, echte Entscheidungen zu treffen. Und wenn ein Roboter Entscheidungen treffen kann, gibt es eine echte Frage, ob er Entscheidungen treffen wird Moral Entscheidungen. Aber was ist Moral für einen Roboter? Ist das dasselbe wie das, was für einen Menschen moralisch ist?

Philosophen und Informatiker konzentrieren sich gleichermaßen auf die Schwierigkeit, subtile menschliche Moral in wörtlich gesinnten Maschinen umzusetzen. Aber es gibt ein anderes Problem, eines, das wirklich an erster Stelle stehen sollte. Es ist die Frage, ob wir überhaupt versuchen sollten, intelligente Maschinen mit unserer eigenen Moral zu belasten. In der Tat würde ich argumentieren, dass dies wahrscheinlich kontraproduktiv und sogar unethisch ist. Das eigentliche Problem der Robotermoral sind nicht die Roboter, sondern us. Können wir damit umgehen, die Welt mit einer neuen Art von moralischer Kreatur zu teilen?

Wir möchten uns vorstellen, dass künstliche Intelligenz (KI) dem Menschen ähnlich sein wird, weil wir die einzige fortgeschrittene Intelligenz sind, die wir kennen. Aber wir sind wahrscheinlich falsch. Wenn und wann AI auftaucht, wird es wahrscheinlich ganz anders sein als wir. Es mag nicht so sein, wie wir es tun, und wir könnten Schwierigkeiten haben, seine Entscheidungen zu verstehen.

In 2016 forderte ein Computerprogramm Lee Sedol heraus, den führenden Spieler der Menschheit im alten Go-Spiel. Das Programm, ein Google-Projekt namens AlphaGo, ist ein frühes Beispiel dafür, wie KI aussehen könnte. Im zweiten Spiel des Spiels machte AlphaGo einen Zug - 'Move 37' -, der Experten-Kommentatoren verblüffte. Einige dachten, es sei ein Fehler. Lee, der menschliche Gegner, stand vom Tisch auf und verließ den Raum. Niemand wusste genau, was AlphaGo tat. Dies war eine Taktik, die von erfahrenen menschlichen Spielern einfach nicht angewendet wurde. Aber es hat geklappt. AlphaGo hat dieses Match gewonnen, so wie es das Spiel zuvor und das nächste Spiel war. Am Ende gewann Lee nur ein einziges von fünf Spielen.

AlphaGo ist sehr, sehr gut in Go, aber es ist nicht so gut wie die Menschen. Nicht einmal seine Schöpfer können erklären, wie es sich in jedem Spiel auf seine Strategie einstellt. Stellen Sie sich vor, Sie könnten mit AlphaGo sprechen und fragen, warum es Move 37 gemacht hat. Könnte es Ihnen - oder menschlichen Go-Experten - die Wahl erklären? Vielleicht. Künstliche Köpfe müssen nicht so arbeiten wie wir, um ähnliche Aufgaben zu erledigen.

In der Tat könnten wir feststellen, dass intelligente Maschinen darüber nachdenken allesGehen Sie nicht einfach, sondern in einer Weise, die uns fremd ist. Sie müssen sich kein schreckliches Science-Fiction-Szenario vorstellen, in dem Roboter mörderisch toben. Es könnte etwas ähnlicheres sein: Stellen Sie sich vor, Roboter zeigen moralische Bedenken gegenüber Menschen, Robotern und den meisten Tieren… und auch Sofas. Sie sind sehr vorsichtig, um Sofas nicht zu beschädigen, genauso wie wir darauf achten, Babys nicht zu beschädigen. Wir könnten die Maschinen fragen: Warum sorgen Sie sich so um Sofas? Und ihre Erklärung ergibt für uns möglicherweise keinen Sinn, so wie die Erklärung von AlphaGo zu Move 37 möglicherweise keinen Sinn ergibt.

Diese Denkrichtung bringt uns zum Kern eines sehr alten philosophischen Puzzles über die Natur der Moral. Ist es etwas, das über die menschliche Erfahrung hinausgeht, etwas, das sich auf irgendjemanden oder irgendetwas bezieht, das Entscheidungen treffen könnte, oder ist die Moral eine ausgesprochen menschliche Schöpfung, etwas, das speziell an unsere besondere Existenz angepasst ist?

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast

3 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
Fred

"Es ist eine trübe Fantasie, künstliche Intelligenz und Roboter als empfindungsfähige Menschen zu behandeln, wenn sie es nicht sind oder jemals sein können." Würden Sie auch sagen, dass es eine „trübe Fantasie“ ist, dass sich Menschen aus einzelligen Organismen entwickelt haben? Persönlich denke ich, dass es viel wahrscheinlicher ist, dass sich Roboter zu „empfindungsfähigen Robotern“ entwickeln. Der Mensch wird als erste Katyliste fungieren, aber die endgültige Entwicklung von Robotern zu empfindungsfähigen Robotern wird von den Robotern selbst ohne Humnan-Eingabe erreicht. Ihre Formen und Handlungen werden diejenigen sein, die für den Roboter am vorteilhaftesten sind, nicht für den Menschen.... Lesen Sie mehr »

Patrick Wood

Fred - du hast zu viel Science Fiction gesehen.

Fred

Kein Zweifel. Aber wenn man sich anschaut, wie sich das Leben aus einzelligen Organismen entwickelt hat, scheint es nicht so weit hergeholt zu sein, dass Roboter (mit der Menschheit als Katalysator) eine logische Erweiterung dieses Prozesses sein könnten. Ich betrachte den Menschen als Teil der Natur, nicht als äußere Beobachter.
Ich war gespannt, wie andere auf diesen Gedanken reagieren würden. Sie waren höflich. Die meisten Leute sagen, ich bin voll von BS.