Schritt 1: Verwenden Sie AI, um nicht erkennbare Änderungen an Außenfotos vorzunehmen. Schritt 2: veröffentlichen Sie sie in der Open-Source-Welt und genießen Sie das Chaos.
Macht sich Sorgen um tiefe Fälschungen- maschinenmanipulierte Videos von Prominenten und Weltführern, die angeblich Dinge sagen oder tun, die sie wirklich nicht getan haben - sind kurios im Vergleich zu einer neuen Bedrohung: Doktorbilder der Erde selbst.
China ist der anerkannte Marktführer bei der Verwendung einer neuen Technik, die als generative kontradiktorische Netzwerke bezeichnet wird, um Computer dazu zu bringen, Objekte in Landschaften oder auf nicht vorhandenen Satellitenbildern zu sehen, sagt Todd Myers, Automationsleiter und Chief Information Officer im Büro des Director of Technology bei der National Geospatial-Intelligence Agency.
„Die Chinesen sind uns weit voraus. Dies ist keine klassifizierte Information “, sagte Myers am Donnerstag des zweiten Jahres Genius Machines Gipfel, veranstaltet von Defense One funktioniert Nextgov. „Die Chinesen haben bereits entworfen; Sie tun es bereits jetzt und verwenden GANs - generative gegnerische Netzwerke -, um Szenen und Pixel zu manipulieren und Dinge aus schändlichen Gründen zu erschaffen. “
Zum Beispiel, so Myers, könnte ein Gegner Ihre computergestützten Bildanalysten täuschen, wenn sie berichten, dass eine Brücke an einem bestimmten Punkt einen wichtigen Fluss überquert.
„Aus taktischer Sicht oder aus Sicht der Missionsplanung trainieren Sie Ihre Streitkräfte, um eine bestimmte Route zu einer Brücke zu gehen, aber diese ist nicht vorhanden. Dann wartet eine große Überraschung auf dich “, sagte er.
Vorname in 2014 beschriebenGANs stellen eine große Entwicklung in der Art und Weise dar, wie neuronale Netze lernen, Objekte zu sehen und zu erkennen und sogar Wahrheit aus Fiktion zu erkennen.
Angenommen, Sie fordern Ihr herkömmliches neuronales Netzwerk auf, herauszufinden, welche Objekte was auf Satellitenfotos sind. Das Netzwerk zerlegt das Bild in mehrere Teile oder Pixelcluster, berechnet, wie diese zerbrochenen Teile zueinander in Beziehung stehen, und entscheidet dann, was das Endprodukt ist oder ob die Fotos echt sind oder bearbeitet wurden. Es basiert alles auf der Erfahrung, viele Satellitenfotos zu betrachten.
GANs kehren diesen Prozess um, indem sie zwei Netzwerke gegeneinander austauschen - daher das Wort „gegnerisch“. Ein herkömmliches Netzwerk könnte sagen: „Das Vorhandensein von x, y und z in diesen Pixelclustern bedeutet, dass dies ein Bild einer Katze ist.“ Aber Ein GAN-Netzwerk könnte sagen: „Dies ist ein Bild einer Katze, also müssen x, y und z vorhanden sein. Was sind x, y und z und in welcher Beziehung stehen sie zueinander? “Das gegnerische Netzwerk lernt, x, y und z so zu konstruieren oder zu generieren, dass es das erste neuronale Netzwerk oder den Diskriminator davon überzeugt, dass etwas vorhanden ist wenn es vielleicht nicht so ist.
Viele Wissenschaftler haben festgestellt, dass GANs nützlich sind, um Objekte zu erkennen und gültige Bilder von gefälschten zu sortieren. In 2017 verwendeten chinesische Gelehrte GANs um Straßen, Brücken und andere Merkmale auf Satellitenfotos zu identifizieren.
Die Sorge, als KI-Technologen sagte Quartz Letztes Jahr hat die gleiche Technik, mit der echte Brücken von falschen unterschieden werden können, auch dazu beigetragen, dass falsche Brücken entstehen, die die KI nicht von der Realität unterscheiden kann.
Myers befürchtet, dass, da sich die Welt immer mehr auf Open-Source-Bilder verlässt, um das physische Terrain zu verstehen, nur eine Handvoll fachmännisch manipulierter Datensätze, die in die Open-Source-Bildversorgungslinie eingegeben werden, zu Chaos führen könnten. „Vergiss das [Verteidigungsministerium] und die [Geheimdienstgemeinschaft]. Stellen Sie sich vor, dass Google Maps damit gezielt infiltriert wird? Und stellen Sie sich vor, in fünf Jahren wird der Tesla [selbstfahrend] semis sind da draußen, um Sachen zu routen? “, sagte er.
Wenn es um tiefe gefälschte Videos von Menschen geht, biometrische Indikatoren wie Puls und Sprache können den Fake-Effekt besiegen. Aber gefälschte Landschaften sind nicht anfällig für die gleichen Techniken.