Experten: Die einzige Verteidigung gegen Killer-KI ist, sie nicht zu entwickeln

Bitte teilen Sie diese Geschichte!
image_pdfimage_print
Außer Kontrolle geratene KI-Killer in der Kriegsführung sind unvermeidlich, da sie für menschliches Management und Kontrolle zu komplex werden. Die einzige wirkliche Antwort ist, sie gar nicht erst zu entwickeln. ⁃ TN Editor

Eine aktuelle Analyse zur Zukunft der Kriegsführung zeigt, dass Länder, die weiterhin KI für militärische Zwecke entwickeln, die Gefahr haben, die Kontrolle über das Schlachtfeld zu verlieren. Diejenigen, die keine Ausrottung riskieren. Ob Sie für oder gegen das KI-Wettrüsten sind: Es passiert. Laut einem Trio von Experten bedeutet das Folgendes.

Forscher aus ASRC Bundesamt, ein privates Unternehmen, das die Geheimdienste und die Verteidigungsgemeinschaften unterstützt, und die University of Maryland haben kürzlich einen Artikel über Pre-Print-Server veröffentlicht ArXivErörterung der möglichen Auswirkungen der Integration von KI-Systemen in die moderne Kriegsführung.

Das Papier - lesen Sie hier - konzentriert sich auf die in naher Zukunft eintretenden Konsequenzen für das KI-Wettrüsten unter der Annahme, dass die KI dies tun wird nicht läuft irgendwie amok oder übernimmt. Im Wesentlichen ist es ein kurzer, nüchterner und erschreckender Blick darauf, wie sich all diese verschiedenen maschinellen Lerntechnologien auf der Grundlage der Analyse aktueller militärischer KI-Spitzentechnologien und der prognostizierten Integration im Maßstab auswirken werden.

Das Papier beginnt mit einer Warnung vor einer bevorstehenden Katastrophe und erklärt, dass es mit ziemlicher Sicherheit einen „normalen Unfall“ in Bezug auf KI geben wird - ein erwarteter Vorfall von Art und Umfang, den wir nicht vorhersagen können. Grundsätzlich werden die Militärs der Welt einige zivile Eier zerbrechen und das KI-Wettrüsten-Omelett herstellen:

Die Untersuchung dieses Gebiets begann mit Unfällen wie Three Mile Island, aber KI-Technologien bergen ähnliche Risiken. Das Auffinden und Ausnutzen dieser Schwächen, um ein fehlerhaftes Verhalten hervorzurufen, wird ein fester Bestandteil der militärischen Strategie.

Wenn Sie glauben, dass Killerroboter es in unseren Städten schaffen, während Zivilisten schreiend um Schutz rennen, liegen Sie nicht falsch - aber Roboter als Stellvertreter für Soldaten sind nicht die größte Sorge der Menschheit, wenn es um KI-Kriege geht. In diesem Artikel wird erörtert, was passiert, nachdem wir den Punkt erreicht haben, an dem offensichtlich wird, dass Menschen Maschinen im Krieg zurückhalten.

Den Forschern zufolge ist das Problem nicht eines, das wir als gut und böse bezeichnen können. Sicher ist es einfach zu sagen, wir sollten nicht zulassen, dass Roboter Menschen mit Autonomie ermorden, aber so wird der Entscheidungsfindungsprozess der Zukunft nicht funktionieren.

Die Forscher beschreiben es als rutschigen Hang:

Wenn KI-Systeme effektiv sind, ist der Druck, die Unterstützung für den Warfighter zu erhöhen, unvermeidlich. Anhaltender Erfolg würde bedeuten, den Menschen schrittweise aus dem Verkehr zu ziehen, zunächst in eine Aufsichtsrolle und schließlich in die Rolle eines „Killswitch-Bedieners“, der ein ständig aktives GESETZ überwacht.

GESETZE oder tödliche autonome Waffensysteme werden fast sofort über die Fähigkeit des Menschen hinausgehen, mit Computern und Maschinen zu arbeiten - und wahrscheinlich früher als die meisten Menschen denken. Der Nahkampf zwischen Maschinen wird zum Beispiel notwendigerweise völlig autonom sein:

Mit der Zeit muss die menschliche Komponente eliminiert werden, wenn die KI zu reflektierendem und integrativem Denken fähiger wird, da Geschwindigkeit und Dimensionalität nicht mehr nachvollziehbar sind, selbst wenn die kognitive Unterstützung berücksichtigt wird.

Und schließlich wird die Taktik und Reaktionsfähigkeit, die erforderlich ist, um Schläge mit KI zu tauschen, jenseits des menschlichen Könnens liegen:

Angesichts eines Kampfraums, der so überwältigend ist, dass Menschen sich nicht manuell mit dem System auseinandersetzen können, wird sich die Rolle des Menschen auf die post-hoc forensische Analyse beschränken, sobald die Feindseligkeiten aufgehört haben oder Verträge unterzeichnet wurden.

Wenn das ein bisschen düster klingt, liegt es daran, dass es so ist. Wie AI's importieren Jack Clark betont: "Dies ist ein kurzes Dokument, in dem die Anliegen von AI + War von einer Community dargelegt werden, von der wir nicht oft hören: von Leuten, die als direkte Lieferanten von Regierungstechnologie arbeiten."

Es könnte im besten Interesse aller liegen, genau zu beobachten, wie Wissenschaftler und Regierung das Problem auch in Zukunft angehen.

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast
2 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
sie

Es wundert mich immer wieder, wie eine "Studie" durchgeführt werden muss, um die Wahrscheinlichkeiten der sehr offensichtlichen bevorstehenden Aktion (en) zu "bestimmen". Nun, DUH! an der KI-Front, Jungs. Erinnert mich daran, von der Frau des CEO einer Marketingfirma zum Abendessen eingeladen worden zu sein. Ich definiere ihn als solchen, weil das alles ist, worüber er gesprochen hat. Während des Essens ging er weiter und weiter über seine Gesellschaft, ad nauseum für den Rest von uns. Als er endlich die Auszahlung erreichte. Er erzählte dem Tisch, dass seine "erstaunliche" Firma 4 Millionen Dollar erhalten hatte, um herauszufinden, warum die Leute eine ausgewählt hatten... Lesen Sie mehr »