Die Maschinen erheben sich und unterwerfen die Menschheit. Es ist eine Science-Fiction-Geschichte, die fast so alt ist wie Maschinen. Die Weltuntergangsszenarien, die sich um dieses Thema drehen, sind so ausgefallen Die MatrixIn dieser von Menschen geschaffenen künstlichen Intelligenz wird der Mensch in eine simulierte Realität eingebunden, um Energie aus seinem Körper zu gewinnen - es ist schwierig, ihn als ernsthafte Bedrohung zu visualisieren.
Unterdessen entwickeln sich künstlich intelligente Systeme immer schneller. Selbstfahrende Autos beginnen, unsere Straßen zu teilen. Geräte im Taschenformat beantworten unsere Anfragen und verwalten unsere Zeitpläne in Echtzeit. Algorithmen haben uns bei Go geschlagen; Roboter können besser aufstehen, wenn sie umfallen. Es ist offensichtlich, wie die Entwicklung dieser Technologien der Menschheit zugute kommt. Aber dann - fangen nicht alle dystopischen Science-Fiction-Geschichten so an?
Jede Diskussion über das dystopische Potenzial der KI kann zu einem von zwei Extremen führen. Man ist übermäßig leichtgläubig und macht Angst. Natürlich wird sich Siri nicht in die mörderische HAL von verwandeln 2001: A Space Odyssey. Aber das andere Extrem ist ebenso gefährlich - Selbstzufriedenheit, über die wir nicht nachdenken müssen, weil die KI, die die Menschheit bedroht, Jahrzehnte oder länger entfernt ist.
Es ist wahr, dass die künstliche "Superintelligenz", die von Science-Fiction geliebt wird, viele Jahrzehnte in der Zukunft sein kann, wenn es überhaupt möglich ist. A Aktuelle Umfrage unter führenden KI-Forschern von TechEmergence in einem viel realistischeren Zeitraum von 20 Jahren eine Vielzahl von Bedenken hinsichtlich der Sicherheitsrisiken von KI festgestellt - einschließlich des Zusammenbruchs des Finanzsystems, wenn Algorithmen unerwartet interagieren, und des Potenzials von KI, böswilligen Akteuren bei der Optimierung biotechnologischer Waffen zu helfen.
Diese Beispiele zeigen, dass die Vierte Industrielle Revolution neben technologischen Fortschritten an vielen Fronten eine schnelle und massive Demokratisierung der Fähigkeit verspricht, in großem Umfang Chaos zu verursachen. Auf der dunklen Seite des „Deep Web“, in dem Informationen vor Suchmaschinen verborgen sind, stehen bereits zerstörerische Tools für eine Reihe neuer Technologien zum Verkauf, von 3D-gedruckten Waffen bis hin zu spaltbarem Material und Ausrüstung für die Gentechnik in Heimlabors. In jedem Fall verstärkt AI das Schadenspotential.
Betrachten Sie eine andere Möglichkeit, die in der TechEmergence-Umfrage erwähnt wurde. Wenn wir eine Waffe, eine Quadrocopter-Drohne, eine hochauflösende Kamera und einen Gesichtserkennungsalgorithmus kombinieren, müssten wir nicht viel fortgeschrittener sein als der Strom Als Klassenbester könnten wir theoretisch eine Maschine bauen, die wir programmieren können, um über Menschenmengen zu fliegen, nach bestimmten Gesichtern zu suchen und Ziele auf Sicht zu töten.
Ein solches Gerät würde keine Superintelligenz erfordern. Es ist denkbar, eine aktuelle, „schmale“ KI zu verwenden, die noch nicht die kreativen Sprünge des Verstehens über verschiedene Bereiche hinweg schaffen kann, die Menschen können. Wenn - wie wahrscheinlich - früher oder später eine "künstliche allgemeine Intelligenz" (AGI) entwickelt wird, werden sowohl die potenziellen Vorteile der KI als auch die potenziellen Vorteile der KI erheblich gesteigert Worte von Jeff Goddell, seinen Sicherheitsrisiken, "eine neue Art der Rechnungslegung mit dem technologischen Geist erzwingen".
Es wird jedoch nicht genug über das waffenfähige Potenzial der KI nachgedacht. Wie Wendell Wallach drückt es aus: "Die Zukunft der technologischen Möglichkeiten zu steuern ist ein gefährliches Unterfangen", bemerkt er. "Es beginnt mit dem Lernen, die richtigen Fragen zu stellen - Fragen, die die Fallstricke von Untätigkeit aufdecken, und, was noch wichtiger ist, die Passagen, die für die Planung eines Kurses zu einem sicheren Hafen zur Verfügung stehen."
Herausforderungen der Nichtverbreitung
Prominente Wissenschaftler, darunter Stuart Russell ausgestellt haben a Aufruf zum Handeln um mögliche Fallstricke bei der Entwicklung der KI zu vermeiden unterstützt von führenden Technologen wie Elon Musk, Demis Hassabis, Steve Wozniak und Bill Gates. Eine große Gefahr könnten „tödliche autonome Waffensysteme“ (LAWS) oder umgangssprachlich „Killerroboter“ sein. Der technologische Fortschritt in der Robotik und die digitale Transformation der Sicherheit haben bereits das grundlegende Paradigma der Kriegsführung verändert. Nach Christopher Coker "Die Technologie des 21st-Jahrhunderts verändert unser Verständnis von Krieg auf äußerst beunruhigende Weise." Ausgereifte GESETZE werden die moderne Kriegsführung wahrscheinlich ebenso dramatisch verändern wie Schießpulver und Atomwaffen.
Der UN-Menschenrechtsrat hat forderte ein Moratorium Während andere Aktivistengruppen und -kampagnen für ein vollständiges Verbot plädierten, zeichnete die internationale Gemeinschaft eine Analogie zu chemischen und biologischen Waffen, die über das blasse Maß hinausgeht. Zum dritten Mal in Folge haben sich die Mitgliedstaaten der Vereinten Nationen im vergangenen Monat getroffen, um die Forderung nach einem Verbot zu erörtern und um sicherzustellen, dass die Weiterentwicklung von GESETZEN im Rahmen des humanitären Völkerrechts bleibt. Wenn sich die bahnbrechende Waffentechnologie jedoch nicht mehr auf einige wenige große Militärs beschränkt, werden die Bemühungen um die Nichtverbreitung wesentlich schwieriger.
Die Debatte wird durch die Tatsache erschwert, dass Definitionen in der Verwirrung verharren. Plattformen wie Drohnen werden häufig mit Waffen verwechselt, die auf Plattformen geladen werden können. Die Idee, dass Systeme zur Ausführung eng definierter Aufgaben aufgefordert werden, beispielsweise zur Identifizierung und Beseitigung von Panzerfahrzeugen, die sich in einem bestimmten geografischen Gebiet bewegen, unterscheidet sich nicht immer von der Idee, dass Systemen ein Ermessensspielraum für die Interpretation allgemeinerer Missionen eingeräumt wird, beispielsweise „Gewinnen“ der Krieg" .