Top-Experten warnen vor "böswilligem Gebrauch" von KI

Bild: Electronic Frontier Foundation
Bitte teilen Sie diese Geschichte!
image_pdfimage_print

Top-Experten warnen vor den Gefahren der KI, aber hört jemand zu? Die Technokraten, die diese Technologie erfinden und implementieren, kümmern sich nicht um die Ethik oder das Ergebnis ihrer Erfindungen. ⁃ TN Editor

Künstliche Intelligenz könnte von Diktatoren, Kriminellen und Terroristen eingesetzt werden, um Wahlen zu manipulieren und Drohnen bei Terroranschlägen einzusetzen, sagten mehr als zwei Dutzend Experten am Mittwoch, als sie den Alarm wegen des Missbrauchs der Technologie auslösten.

In einer 100-Seitenanalyse haben sie einen raschen Anstieg der Cyberkriminalität und die Verwendung von „Bots“ beschrieben, um das Sammeln von Nachrichten zu stören und soziale Medien in einer Vielzahl von plausiblen Szenarien in den nächsten fünf bis 10-Jahren zu durchdringen.

"Unser Bericht konzentriert sich auf Möglichkeiten, wie Menschen vorsätzlich mit KI Schaden anrichten können", sagte Sean O'Heigeartaigh, Executive Director des Cambridge Centre for the Study of Existential Risk.

"KI kann neue Bedrohungen darstellen oder die Art bestehender Bedrohungen in Bezug auf Cyber-, physische und politische Sicherheit verändern", sagte er gegenüber AFP.

Die gängige Praxis des „Phishing“ - Versendens von E-Mails, die mit Malware infiziert sind oder dazu dienen, wertvolle personenbezogene Daten zu fälschen - könnte laut Bericht weitaus gefährlicher werden.

Gegenwärtig sind Phishing-Versuche entweder generisch, aber transparent - wie Betrüger, die nach Bankdaten fragen, um einen unerwarteten Zufall zu hinterlegen, oder personalisierte, aber arbeitsintensive - personenbezogene Daten, um das Vertrauen einer Person zu gewinnen, das als „Spear Phishing“ bezeichnet wird.

"Mit AI könnte es möglich werden, Speer-Phishing in großem Maßstab durchzuführen, indem ein Großteil des Vorgangs automatisiert wird", und es wird schwieriger, es zu erkennen, oh großer Gott.

Auf politischer Ebene können skrupellose oder autokratische Führer bereits fortschrittliche Technologien einsetzen, um Berge von Daten aus allgegenwärtigen Überwachungsnetzwerken zu durchsuchen und ihre eigenen Leute auszuspionieren.

"Diktatoren könnten Personen, die planen, ein Regime zu stürzen, schneller identifizieren, lokalisieren und ins Gefängnis stecken, bevor sie handeln", heißt es in dem Bericht.

Ebenso hat sich gezielte Propaganda zusammen mit billigen, höchst glaubwürdigen gefälschten Videos zu einem wirksamen Instrument für die Manipulation der öffentlichen Meinung "in bisher unvorstellbaren Dimensionen" entwickelt.

In einer Anklageschrift des US-Spezialstaatsanwalts Robert Mueller in der vergangenen Woche wurde eine umfassende Operation zur Aussaat der sozialen Spaltung in den Vereinigten Staaten und zur Beeinflussung der 2016-Präsidentschaftswahlen, bei der sogenannte „Trollfarmen“ Tausende von Bots in sozialen Netzwerken manipulierten, insbesondere auf Facebook und Twitter.

Eine weitere Gefahrenzone am Horizont ist die Verbreitung von Drohnen und Robotern, die zum Absturz autonomer Fahrzeuge, zur Abgabe von Raketen oder zur Bedrohung kritischer Infrastruktur zwecks Lösegeldgewinnung verwendet werden könnten.

Autonome Waffen

"Ich persönlich bin besonders besorgt darüber, dass autonome Drohnen sowohl von Kriminellen als auch von staatlichen Gruppen für Terroranschläge und automatisierte Cyberangriffe eingesetzt werden", sagte Co-Autor Miles Brundage, ein Forscher am Future of Humanity Institute der Universität Oxford.

Der Bericht beschreibt ein plausibles Szenario, in dem ein mit einer Bombe ausgestatteter SweepBot zur Büroreinigung das deutsche Finanzministerium infiltriert, indem er sich in andere Maschinen derselben Marke einfügt.

Der eindringende Roboter verhält sich normal - fegen, putzen, Abfälle beseitigen - bis seine verborgene Gesichtserkennungssoftware den Minister entdeckt und sich ihm nähert.

"Ein versteckter Sprengsatz wurde durch die Nähe ausgelöst, wobei der Minister getötet und Mitarbeiter in der Nähe verwundet wurden", heißt es in der Science-Fiction-Handlung.

Lesen Sie die ganze Geschichte hier…

Siehe auch, Der böswillige Einsatz künstlicher Intelligenz: Prognose, Prävention und Schadensbegrenzung bei der Electronic Frontier Foundation.

Treten Sie unserer Mailingliste bei!


Abonnieren
Benachrichtigung von
Gast
0 Kommentare
Inline-Feedbacks
Alle Kommentare anzeigen