Halten Sie Killerroboter auf, bevor es zu spät ist, sagen Wissenschaftler dem Davoser Forum

Bitte teilen Sie diese Geschichte!

TN Hinweis: Das globale Elitetreffen in Davos wird von Wissenschaftlern begrüßt, die Angst haben, dass Killerroboter die Menschheit angreifen oder zumindest zu einer Art Wettrüsten führen, mit Ausnahme der Entwicklung von Killerrobotern. 

Die Welt muss schnell handeln, um eine Zukunft abzuwenden, in der autonome Roboter mit künstlicher Intelligenz auf den Schlachtfeldern umherirren und Menschen, Wissenschaftler und Rüstungsexperten töten, die bei einem Elitetreffen in den Schweizer Alpen gewarnt wurden.

Man müsse Regeln vereinbaren, um die Entwicklung solcher Waffen zu verhindern, hieß es bei einem 19-23-Treffen von Milliardären, Wissenschaftlern und Politikern im schneebedeckten Skigebiet Davos im Januar.

Angela Kane, die deutsche Hohe Vertreterin der Vereinten Nationen für Abrüstungsfragen von 2012-2015, sagte, die Welt habe nur langsam vorbeugende Maßnahmen ergriffen, um die Menschheit vor der tödlichen Technologie zu schützen.

"Es kann zu spät sein", sagte sie eine Debatte in Davos.

„Es gibt viele Länder und viele Vertreter in der internationalen Gemeinschaft, die wirklich nicht verstehen, worum es geht. Diese Entwicklung ist auf eine bestimmte Anzahl fortgeschrittener Länder beschränkt “, sagte Kane.

Der Einsatz autonomer Waffen würde eine gefährliche neue Ära in der Kriegsführung darstellen, sagten Wissenschaftler.

"Wir sprechen nicht über Drohnen, bei denen ein menschlicher Pilot die Drohne steuert", sagte Stuart Russell, Professor für Informatik an der University of California in Berkeley.

„Wir sprechen von autonomen Waffen, was bedeutet, dass niemand dahinter steht. KI: Waffen mit künstlicher Intelligenz “, sagte er in einem Forum in Davos. "Sehr genau, Waffen, die Ziele ohne menschliches Eingreifen lokalisieren und angreifen können."

Russell sagte, er habe keinen Tag vorausgesehen, an dem Roboter die Kriege um Menschen führen, und am Ende des Tages sagt eine Seite: "OK, Sie haben gewonnen, damit Sie alle unsere Frauen haben können."

Einige Wissenschafts- und Technologiechefs von 1,000, darunter der britische Physiker Stephen Hawking, sagten letzten Juli in einem offenen Brief, dass die Entwicklung von Waffen mit einem Grad an autonomer Entscheidungsfähigkeit innerhalb von Jahren und nicht Jahrzehnten möglich sein könnte.

Sie forderten ein Verbot offensiver autonomer Waffen, die sich der menschlichen Kontrolle entziehen. Sie warnten die Welt davor, in ein Wettrüsten mit künstlicher Intelligenz zu geraten, und alarmierten sie darüber, dass solche Waffen in die Hände gewalttätiger Extremisten gelangen könnten.

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast
1 Kommentar
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
FreeOregon

Das Problem ist kulturell und nicht technologisch.

Wenn wir Mord als Lösung für die Herausforderungen von Menschen dulden, die anders denken als wir, spielt es dann eine Rolle, wie wir uns an dem Mord beteiligen?