Experte: KI-Soldaten entwickeln 'Moralkompass' und widersetzen sich Befehlen

Wikimedia Commons
Bitte teilen Sie diese Geschichte!
Es wurde bereits gezeigt, dass KI-Algorithmen die Vorurteile ihrer Schöpfer aufweisen. Warum also nicht auch mörderische Absichten? Technokraten sind so begeistert von ihren Pollyanna-Erfindungen, dass sie das logische Ende ihrer Existenz nicht erkennen können. ⁃ TN Editor

Mörderische Robotersoldaten werden so weit fortgeschritten sein, dass sie ihren eigenen Moralkodex entwickeln können, um den Befehlen gewaltsam zu trotzen, behauptet ein KI-Experte.

Ex-Kybernetiker Dr. Ian Pearson sagt voraus, dass wir uns auf eine Zukunft von freuen bewusste Maschinen.

Wenn Roboter jedoch von Militärmächten in Aktion gesetzt werden, warnt der Zukunftsforscher, dass sie in der Lage sein werden, ihren eigenen „moralischen Standpunkt“ zu beschwören.

Und wenn doch, behauptet der Ex-Raketenwissenschaftler, sie könnten sich gegen die Leute wenden, die sie in die Schlacht schicken.

Dr. Pearson, der für Futurizon bloggt, sagte gegenüber Daily Star Online: „Während sich die KI weiterentwickelt und wir uns auf den Weg zum Bewusstsein machen - und es wird keine Sache über Nacht sein, aber wir machen nach und nach Computer mehr und mehr Anspruchsvoller - irgendwann geben Sie ihnen Zugang zu moralischer Bildung, damit sie selbst Moral lernen können.

„Sie können ihnen Denkfähigkeiten geben und sie könnten sich einen anderen Moralkodex einfallen lassen, der sie auf ein höheres Podest stellt als die Menschen, denen sie dienen sollen.

Auf die Frage, ob sich dies als tödlich erweisen könnte, antwortete er: „Ja, natürlich.

„Wenn sie die Kontrolle über Waffen haben und entscheiden, dass sie ein überlegenes moralisches Wesen sind als die Menschen, die sie bewachen sollen, könnten sie Entscheidungen treffen, dass bestimmte Menschen getötet werden sollten, um die größere Bevölkerung zu schützen.

„Wer weiß, welche Entscheidungen sie treffen könnten?

„Wenn Sie einen Mann auf einem Schlachtfeld haben, der den Soldaten sagt, sie sollen aus irgendeinem Grund auf diese Gruppe von Menschen schießen, aber der Computer denkt anders, der Computer ist nicht davon überzeugt, könnte dies zu dem Schluss führen, dass der Soldat, der die Befehle erteilt, eher der schlimmste Täter ist als die Leute, die er zu töten versucht, also könnte es sich umdrehen und ihn stattdessen töten.

"Es ist durchaus möglich, es hängt davon ab, wie die Systeme geschrieben sind."

Die Warnung von Dr. Pearson kommt angesichts der wachsenden Besorgnis über den Einsatz völlig autonomer Roboter im Krieg.

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast
6 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
Pyra

Idiotisch. Denkt einer dieser Computer-Idioten jemals darüber nach, was sie sagen? Ich meine, denke es über die Nasenspitze hinaus.

Das Sprichwort „sich als weise bekennen, sie wurden zu Narren…“ hat hier eine große Relevanz.