Ex-Google-Ingenieur: "Killerroboter" könnten Krieg führen

Bitte teilen Sie diese Geschichte!
image_pdfimage_print
Während die Regierungen das Wettrüsten der KI ankurbeln, um autonome Roboter mit einer "Tötungslizenz" zu leiten, steigt auch das Risiko fürchterlicher Fehler, einschließlich der Möglichkeit, einen Roboterkrieg auszulösen. ⁃ TN Editor

Eine neue Generation autonomer Waffen oder „Killerroboter“ könnte versehentlich einen Krieg auslösen oder Massengräueltaten hervorrufen, eine frühere Spitze Google Softwareentwickler hat gewarnt.

Laura Nolan, die letztes Jahr aus Protest von Google zurückgetreten ist, weil sie an einem Projekt zur drastischen Verbesserung arbeiten wollte U.S. Militär Die Drohnen-Technologie hat ein Verbot aller KI-Tötungsmaschinen gefordert, die nicht von Menschen bedient werden.

Nolan sagte, dass Killerroboter, die nicht von Menschen ferngesteuert werden, durch denselben internationalen Vertrag geächtet werden sollten, der chemische Waffen verbietet.

Im Gegensatz zu Drohnen, die von Militärteams gesteuert werden, die oft Tausende von Kilometern von dem Ort entfernt sind, an dem die fliegende Waffe eingesetzt wird, könnten Killerroboter laut Nolan „katastrophale Dinge tun, für die sie ursprünglich nicht programmiert waren“.

Es gibt keinen Hinweis darauf, dass Google an der Entwicklung autonomer Waffensysteme beteiligt ist. Im vergangenen Monat diskutierte eine Expertengruppe der Vereinten Nationen über autonome Waffen und stellte fest, dass Google keine KI für den Einsatz in Waffensystemen und für Best Practices einsetzt.

Nolan, der sich der Kampagnen Killerroboter zu stoppen und informierte UN-Diplomaten in New York und Genf über die Gefahren autonomer Waffen: „Die Wahrscheinlichkeit einer Katastrophe hängt davon ab, wie viele dieser Maschinen sich auf einmal in einem bestimmten Gebiet befinden werden. Was Sie sehen, sind mögliche Gräueltaten und rechtswidrige Tötungen, auch unter Kriegsgesetzen, insbesondere wenn Hunderte oder Tausende dieser Maschinen eingesetzt werden.

„Es kann zu schweren Unfällen kommen, weil sich diese Dinge auf unerwartete Weise verhalten. Aus diesem Grund sollten moderne Waffensysteme einer sinnvollen menschlichen Kontrolle unterliegen, da sie sonst verboten werden müssen, weil sie viel zu unvorhersehbar und gefährlich sind. “

Google rekrutierte Nolan, eine Absolventin der Informatik am Trinity College Dublin, für das Projekt Maven in 2017, nachdem sie vier Jahre lang beim Technologiegiganten gearbeitet hatte und eine der besten Softwareingenieure in Irland geworden war.

Sie sagte, sie sei "zunehmend ethisch besorgt" über ihre Rolle im Maven-Programm, das entwickelt wurde, um dem US-Verteidigungsministerium zu helfen, die Drohnen-Videoerkennungstechnologie drastisch zu beschleunigen.

Nolan und andere wurden gebeten, ein System zu bauen, mit dem KI-Maschinen Menschen und Objekte unendlich schneller unterscheiden konnten, anstatt stundenlang Drohnenvideos potenzieller feindlicher Ziele abzuspulen.

Google ließ den Project Maven-Vertrag im März dieses Jahres nach mehr als 3,000 seiner Mitarbeiter enden Unterzeichnete eine Petition aus Protest gegen die Beteiligung des Unternehmens.

„Als Site Reliability Engineer war ich bei Google darauf spezialisiert, sicherzustellen, dass unsere Systeme und Infrastrukturen am Laufen bleiben. Dabei sollte ich Maven helfen. Obwohl ich nicht direkt an der Beschleunigung der Erkennung von Videomaterial beteiligt war, stellte ich fest, dass ich immer noch Teil der Kill-Kette war. dass dies letztendlich dazu führen würde, dass mehr Menschen vom US-Militär in Orten wie Afghanistan angegriffen und getötet werden. “

Obwohl sie wegen Project Maven zurückgetreten ist, hat Nolan vorausgesagt, dass die Entwicklung autonomer Waffen ein weitaus größeres Risiko für die Menschheit darstellt als ferngesteuerte Drohnen.

Sie skizzierte, wie externe Kräfte, die von wechselnden Wettersystemen bis hin zu Maschinen reichen, die nicht in der Lage sind, komplexes menschliches Verhalten zu trainieren, Killerroboter vom Kurs abbringen und möglicherweise fatale Folgen haben können.

„Man könnte ein Szenario haben, in dem autonome Waffen, die für einen Job ausgesandt wurden, unerwarteten Radarsignalen in einem Gebiet, in dem sie suchen, ausgesetzt sind. Es könnte Wetter geben, das nicht in der Software berücksichtigt ist, oder sie stoßen auf eine Gruppe bewaffneter Männer, die scheinbar aufständische Feinde sind, aber tatsächlich mit Waffen unterwegs sind, die nach Nahrung suchen. Die Maschine hat nicht die Einsicht oder den gesunden Menschenverstand, den die menschliche Berührung hat.

„Das andere beängstigende an diesen autonomen Kriegssystemen ist, dass man sie nur dann wirklich testen kann, wenn man sie in einer echten Kampfzone einsetzt. Vielleicht passiert das gerade mit den Russen in Syrien, wer weiß? Was wir wissen, ist, dass Russland sich bei der UNO gegen jeden Vertrag ausgesprochen hat, geschweige denn gegen ein Verbot dieser Waffen.

„Wenn Sie eine Maschine testen, die ihre eigenen Entscheidungen in Bezug auf die Welt um sie herum trifft, muss dies in Echtzeit geschehen. Wie trainieren Sie außerdem ein System, das ausschließlich mit Software betrieben wird, um subtiles menschliches Verhalten zu erkennen oder den Unterschied zwischen Jägern und Aufständischen zu erkennen? Wie unterscheidet die Tötungsmaschine, die alleine unterwegs ist, zwischen dem 18-jährigen Kämpfer und dem 18-jährigen, der nach Kaninchen jagt? “

Lesen Sie die ganze Geschichte hier…

Treten Sie unserer Mailingliste bei!


Abonnieren
Benachrichtigung von
Gast
1 Wie
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
steve

Das erinnert mich an die Szene aus War Games - etwas altmodisch, aber hochaktuell. https://www.youtube.com/watch?v=NHWjlCaIrQo