Killerroboter? AI-Forscher unterzeichnen Petition mit "Nein!"

Bitte teilen Sie diese Geschichte!
image_pdfimage_print
Der Geist ist bereits aus der Flasche, aber fortgeschrittene KI-Forscher sind jetzt sehr besorgt darüber, wie ihre Kreationen in der autonomen Kriegsführung eingesetzt werden. KI ist kurz davor, sich selbst zu replizieren, was bedeutet, dass sich Schurkenanwendungen, die darauf abzielen, Menschen zu töten, vermehren könnten, bis die Menschheit ausgelöscht ist. ⁃ TN Editor

Tausende Wissenschaftler, die sich auf künstliche Intelligenz (KI) spezialisiert haben, haben erklärt, dass sie sich nicht an der Entwicklung oder Herstellung von Robotern beteiligen werden, mit denen Menschen ohne menschliche Aufsicht identifiziert und angegriffen werden können.

Demis Hassabis von Google DeepMind und Elon Musk von der US-Raketenfirma SpaceX gehören zu mehr als 2,400 Unterzeichner des Versprechens Dies soll Militärunternehmen und Nationen davon abhalten, tödliche autonome Waffensysteme zu bauen, die auch als Gesetze bekannt sind.

Dies ist der neueste Schritt von betroffenen Wissenschaftlern und Organisationen, um die Gefahren der Übergabe von Entscheidungen über Leben und Tod an AI-verbesserte Maschinen aufzuzeigen. Es folgen Forderungen nach einem präventives Verbot über Technologien, von denen Aktivisten glauben, dass sie eine neue Generation von Massenvernichtungswaffen einleiten könnten.

Das Versprechen wurde von der in Boston ansässigen Organisation The Future of Life Institute inszeniert und fordert die Regierungen auf, Normen, Gesetze und Vorschriften zu vereinbaren, die die Entwicklung von Killerrobotern stigmatisieren und effektiv verbieten. In Ermangelung derartiger Maßnahmen verpflichten sich die Unterzeichner, „weder an der Entwicklung, Herstellung, dem Handel oder dem Einsatz tödlicher autonomer Waffen mitzuwirken noch diese zu unterstützen“ Dies wurde heute auf der Internationalen Gemeinsamen Konferenz über KI in Stockholm angekündigt.

Yoshua Bengio, AI-Pionier am Montreal Institute for Learning Algorithms, sagte dem Guardian, dass die öffentliche Meinung gegen sie schwingen würde, wenn das Versprechen die Unternehmen und Militärorganisationen beschämen könnte, die autonome Waffen bauen. „Dieser Ansatz hat sich dank internationaler Verträge und öffentlicher Schande tatsächlich für Landminen bewährt, obwohl große Länder wie die USA den Vertrag über das Verbot von Landminen nicht unterzeichnet haben. Amerikanische Unternehmen haben aufgehört, Landminen zu bauen “, sagte er. Bengio unterzeichnete die Zusage, seine "starke Besorgnis über tödliche autonome Waffen" zum Ausdruck zu bringen.

Das Militär ist einer der größten Geldgeber und Anwender von KI-Technologie. Mit fortschrittlichen Computersystemen können Roboter Missionen über feindliches Gelände fliegen, auf dem Boden navigieren und unter Wasser patrouillieren. Weiterentwickelte Waffensysteme sind in Vorbereitung. Am Montag enthüllte Verteidigungsminister Gavin Williamson einen Plan von £ 2bn für a neuer RAF-Kämpfer, der Sturm, der ohne Piloten fliegen kann.

Die britischen Minister haben erklärt, dass Großbritannien keine tödlichen autonomen Waffensysteme entwickelt und dass seine Streitkräfte die von ihm eingesetzten Waffen stets überwachen und kontrollieren werden. Die Aktivisten warnen jedoch davor, dass schnelle Fortschritte in der KI und in anderen Bereichen es nun möglich machen, ausgeklügelte Waffen zu bauen, mit denen menschliche Ziele ohne Zustimmung eines menschlichen Kontrolleurs identifiziert, verfolgt und beschossen werden können. Für viele Forscher ist es eine moralische Grenze, Maschinen die Entscheidung zu geben, wer lebt und stirbt.

„Wir müssen es zur internationalen Norm machen, dass autonome Waffen nicht akzeptabel sind. Ein Mensch muss immer auf dem Laufenden sein “, sagte Toby Walsh, Professor für KI an der Universität von New South Wales in Sydney, der das Versprechen unterzeichnete

Lesen Sie die ganze Geschichte hier…

Treten Sie unserer Mailingliste bei!


Abonnieren
Benachrichtigung von
Gast
0 Kommentare
Inline-Feedbacks
Alle Kommentare anzeigen