Experte: KI-Soldaten entwickeln 'Moralkompass' und widersetzen sich Befehlen

Wikimedia Commons
Bitte teilen Sie diese Geschichte!
image_pdfimage_print
Es wurde bereits gezeigt, dass KI-Algorithmen die Vorurteile ihrer Schöpfer aufweisen. Warum also nicht auch mörderische Absichten? Technokraten sind so begeistert von ihren Pollyanna-Erfindungen, dass sie das logische Ende ihrer Existenz nicht erkennen können. ⁃ TN Editor

Mörderische Robotersoldaten werden so weit fortgeschritten sein, dass sie ihren eigenen Moralkodex entwickeln können, um den Befehlen gewaltsam zu trotzen, behauptet ein KI-Experte.

Ex-Kybernetiker Dr. Ian Pearson sagt voraus, dass wir uns auf eine Zukunft von freuen bewusste Maschinen.

Wenn Roboter jedoch von militärischen Mächten zum Einsatz gebracht werden, warnt der Zukunftsforscher, dass sie in der Lage sein werden, ihren eigenen „moralischen Standpunkt“ zu beschwören.

Und wenn doch, behauptet der Ex-Raketenwissenschaftler, sie könnten sich gegen die Leute wenden, die sie in die Schlacht schicken.

Dr. Pearson, der für Futurizon bloggt, sagte gegenüber Daily Star Online: „Während sich die KI weiterentwickelt und wir uns auf den Weg zum Bewusstsein machen - und das wird nicht über Nacht, aber wir machen allmählich mehr und mehr Computer anspruchsvoller - irgendwann geben Sie ihnen Zugang zu moralischer Erziehung, damit sie selbst Moral lernen können.

„Sie können ihnen Denkvermögen geben, und sie haben möglicherweise einen anderen Moralkodex, der sie auf ein höheres Podest stellt als die Menschen, denen sie dienen sollen.

Auf die Frage, ob sich dies als tödlich erweisen könnte, antwortete er: „Ja, natürlich.

„Wenn sie die Kontrolle über Waffen haben und feststellen, dass sie ein überlegenes moralisches Wesen sind als die Menschen, die sie beschützen sollen, können sie Entscheidungen treffen, die bestimmte Menschen zum Schutz der größeren Bevölkerung töten sollten.

„Wer weiß, welche Entscheidungen sie treffen könnten?

„Wenn Sie einen Mann auf einem Schlachtfeld haben, der den Soldaten sagt, er solle diese Gruppe von Menschen erschießen, aus welchen Gründen auch immer, aber der Computer denkt anders, der Computer ist davon nicht überzeugt. Dies könnte den Schluss ziehen, dass der Soldat, der den Befehl erteilt, eher der schlimmste Täter ist als die Leute, die er zu töten versucht, also könnte es sich umdrehen und ihn stattdessen töten.

"Es ist durchaus möglich, es hängt davon ab, wie die Systeme geschrieben sind."

Die Warnung von Dr. Pearson taucht inmitten der wachsenden Besorgnis auf, dass im Krieg völlig autonome Roboter zum Einsatz kommen.

Lesen Sie die ganze Geschichte hier…

Treten Sie unserer Mailingliste bei!


Technocracy.News ist das ausschließlich Website im Internet, die über Technocracy berichtet und diese kritisiert. Bitte nehmen Sie sich eine Minute Zeit, um unsere Arbeit an Patreon zu unterstützen!
Benutzerbild
6 Kommentar-Threads
0 Thread antwortet
0 Verfolger
Am meisten reagierte Kommentar
Heißester Kommentar-Thread
1 Kommentarautoren
Pyra Neueste Kommentarautoren
Abonnieren
neueste älteste am meisten gestimmt
Benachrichtigung von
Trackbacks

[…] Viele Online-Geschichten, wie die hier bei Technocracy, die Steve Quayle am Montagmorgen auf seiner Website verlinkt hat, warnen vor den Gefahren künstlicher […]

Trackbacks

[…] Wie Republikaner die 2-Änderung beschädigt haben - 12-Feuerwaffen-Artikel, die Sie lesen sollten Experte: KI-Soldaten entwickeln 'Moralkompass' und widersetzen sich Befehlen - AI-Algorithmen zeigen Folgendes: Studie sagt Schock-Ende der Menschheit voraus: Die Menschheit wird scheitern Kumpel 'wie asozial […]

Trackbacks

[…] Mörderische Robotersoldaten werden so weit fortgeschritten sein, dass sie ihren eigenen Moralkodex entwickeln können, um den Anweisungen gewaltsam zu trotzen, behauptet ein KI-Experte. Ex-Kybernetiker Dr. Ian Pearson prognostiziert, dass wir in Richtung einer Zukunft bewusster Maschinen streben. Wenn Roboter jedoch von militärischen Mächten zum Einsatz gebracht werden, warnt der Zukunftsforscher, dass sie in der Lage sein werden, ihren eigenen „moralischen Standpunkt“ zu beschwören. Und wenn doch, behauptet der Ex-Raketenwissenschaftler, sie könnten sich gegen die Leute wenden, die sie in die Schlacht geschickt haben ... (LESEN SIE MEHR) [...]

Pyra
Gast
Pyra

Idiotisch. Denkt einer dieser Computer-Idioten jemals darüber nach, was sie sagen? Ich meine, denke es über die Nasenspitze hinaus.

Das Sprichwort „sich als weise bekennen, sie wurden zu Narren…“ hat hier eine große Relevanz.

Trackbacks

[…] Experte: KI-Soldaten werden 'Moral Compass' entwickeln und Befehle herausfordern […]