Top-Experten warnen vor "böswilligem Gebrauch" von KI

Bild: Electronic Frontier Foundation
Bitte teilen Sie diese Geschichte!

Top-Experten warnen vor den Gefahren der KI, aber hört jemand zu? Die Technokraten, die diese Technologie erfinden und implementieren, kümmern sich nicht um die Ethik oder das Ergebnis ihrer Erfindungen. ⁃ TN Editor

Künstliche Intelligenz könnte von Diktatoren, Kriminellen und Terroristen eingesetzt werden, um Wahlen zu manipulieren und Drohnen bei Terroranschlägen einzusetzen, sagten mehr als zwei Dutzend Experten am Mittwoch, als sie den Alarm wegen des Missbrauchs der Technologie auslösten.

In einer 100-seitigen Analyse skizzierten sie ein schnelles Wachstum der Internetkriminalität und den Einsatz von „Bots“, um das Sammeln von Nachrichten zu stören und in den nächsten fünf bis zehn Jahren unter einer Vielzahl plausibler Szenarien in soziale Medien einzudringen.

"Unser Bericht konzentriert sich auf Möglichkeiten, wie Menschen mit KI absichtlich Schaden anrichten können", sagte Sean O hEigeartaigh, Executive Director des Cambridge Centre for the Study of Existential Risk.

"KI kann neue Bedrohungen darstellen oder die Art bestehender Bedrohungen in Bezug auf Cyber-, physische und politische Sicherheit ändern", sagte er gegenüber AFP.

Die gängige Praxis des „Phishing“ - das Versenden von E-Mails, die mit Malware besiedelt sind oder wertvolle personenbezogene Daten verarbeiten sollen - könnte weitaus gefährlicher werden, heißt es in dem detaillierten Bericht.

Gegenwärtig sind Phishing-Versuche entweder allgemein, aber transparent - wie Betrüger, die nach Bankdaten fragen, um einen unerwarteten Zufall zu hinterlegen - oder personalisierte, aber arbeitsintensive - das Sammeln persönlicher Daten, um das Vertrauen einer Person zu gewinnen, was als "Spear Phishing" bezeichnet wird.

"Mit AI könnte es möglich werden, Spear-Phishing in großem Maßstab durchzuführen, indem ein Großteil des Prozesses automatisiert wird", und es schwieriger zu erkennen, bemerkte O hEigeartaigh.

Auf politischer Ebene können skrupellose oder autokratische Führer bereits fortschrittliche Technologien einsetzen, um Berge von Daten aus allgegenwärtigen Überwachungsnetzwerken zu durchsuchen und ihre eigenen Leute auszuspionieren.

"Diktatoren könnten Menschen, die planen, ein Regime zu untergraben, schneller identifizieren, lokalisieren und ins Gefängnis bringen, bevor sie handeln", heißt es in dem Bericht.

Ebenso sind gezielte Propaganda und billige, glaubwürdige gefälschte Videos zu mächtigen Werkzeugen geworden, um die öffentliche Meinung „in bisher unvorstellbaren Maßstäben“ zu manipulieren.

In einer Anklageschrift des US-Sonderstaatsanwalts Robert Mueller in der vergangenen Woche wurde eine umfassende Operation zur Aussaat der sozialen Spaltung in den USA und zur Beeinflussung der Präsidentschaftswahlen 2016 beschrieben, bei der sogenannte „Trollfarmen“ Tausende von Bots sozialer Netzwerke manipulierten, insbesondere auf Facebook und Twitter.

Eine weitere Gefahrenzone am Horizont ist die Verbreitung von Drohnen und Robotern, die zum Absturz autonomer Fahrzeuge, zur Abgabe von Raketen oder zur Bedrohung kritischer Infrastruktur zwecks Lösegeldgewinnung verwendet werden könnten.

Autonome Waffen

"Ich persönlich bin besonders besorgt darüber, dass autonome Drohnen sowohl von Kriminellen als auch von staatlichen Gruppen für Terror und automatisierte Cyberangriffe eingesetzt werden", sagte Co-Autor Miles Brundage, Forscher am Future of Humanity Institute der Universität Oxford.

Der Bericht beschreibt ein plausibles Szenario, in dem ein mit einer Bombe ausgestatteter SweepBot zur Büroreinigung das deutsche Finanzministerium infiltriert, indem er sich in andere Maschinen derselben Marke einfügt.

Der eindringende Roboter verhält sich normal - fegen, reinigen, Müll beseitigen -, bis seine versteckte Gesichtserkennungssoftware den Minister erkennt und sich ihm nähert.

"Ein versteckter Sprengsatz wurde durch Nähe ausgelöst, wobei der Minister getötet und Mitarbeiter in der Nähe verwundet wurden", heißt es in der Science-Fiction-Geschichte.

Lesen Sie die ganze Geschichte hier…

Siehe auch, Der böswillige Einsatz künstlicher Intelligenz: Prognose, Prävention und Schadensbegrenzung bei der Electronic Frontier Foundation.

Abonnieren
Benachrichtigung von
Gast

0 Kommentare
Inline-Feedbacks
Alle Kommentare anzeigen