Pentagon Chiefs befürchten, dass Killerroboter die Menschheit möglicherweise auslöschen könnten

Pentagon (Wikipedia Commons)
Bitte teilen Sie diese Geschichte!

Noch vor sechs Monaten bestritt das Pentagon, autonome Killerroboter herzustellen. Heute ist klar, dass sie nicht nur solche Maschinen bauen, sondern sich auch Sorgen darüber machen, dass autonome Roboterkriege die gesamte Menschheit auslöschen könnten.  TN Editor

Riesige Technologiesprünge bei Drohnen, künstlicher Intelligenz und autonomen Waffensystemen müssen angegangen werden, bevor die Menschheit vom Aussterben bedroht ist.

Roboterwaffen sind so weit fortgeschritten, dass führende Militärexperten in den USA befürchten, dass die Handlung des Science-Fiction-Films "Terminator" wahr werden könnte.

Riesige Technologiesprünge bei Drohnen, künstlicher Intelligenz und autonomen Waffensystemen müssen angegangen werden, bevor die Menschheit vom Aussterben bedroht istmechanische Oberherren wie im 1984 Arnold Schwarzenegger-Klassiker, so Pentagon-Chefs.

Air Force General Paul Selva, der stellvertretende Vorsitzende der gemeinsamen Stabschefs des US-Verteidigungsministeriums, sagte so genannten denkende Waffen könnte dazu führen: "Robotersysteme, die tödlichen Schaden anrichten ... ein Terminator ohne Gewissen."

Auf die Frage nach Roboterwaffen, die in der Lage sind, ihre eigenen Entscheidungen zu treffen, sagte er: "Unsere Aufgabe ist es, den Feind zu besiegen", aber "es wird gesetzlich und durch Konventionen geregelt."

Er sagt, das Militär bestehe darauf, die Menschen im Entscheidungsprozess zu halten, um „dem Feind Gewalt zuzufügen“.

„Diese ethische Grenze ist die, an der wir eine ziemlich feine Linie gezogen haben. Dies ist eine, die wir bei der Entwicklung dieser neuen Waffen berücksichtigen müssen “, fügte er hinzu.

Selva sagte, das Pentagon müsse sich an Technologiefirmen für künstliche Intelligenz wenden, die nicht unbedingt „militärisch orientiert“ seien, um neue Systeme für Befehls- und Führungsmodelle zu entwickeln, berichtet US Naval Institute Nachrichten .

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast
3 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
FreeOregon

General Paul Selva hat ein Gewissen?

John Dunlap

Dieser Artikel stärkt nur meine Überzeugung, dass diese Waffen nicht für konventionelle Schlachtfelder bestimmt sind. KI wird niemals Entscheidungen „besser“ treffen als ein Mensch, aber sie trifft Entscheidungen bereits viel schneller. Diese Maschinen haben keinen Vorteil gegenüber konventionellen Kräften, einfach weil gegnerische Kräfte ihre eigenen Systeme und Gegenmaßnahmen einsetzen, aber sie stellen eine ernsthafte Gefahr dar. Insbesondere aufgrund der Geschwindigkeit, mit der autonome Waffen Entscheidungen treffen, besteht eine sehr reale Wahrscheinlichkeit, dass sich die Form eines Konflikts, einschließlich Expansion und Eskalation, in einem Tempo entwickelt, das die Fähigkeit der Entscheidungsträger übertrifft, die Nase vorn zu haben... Lesen Sie mehr »