KI schafft "falsche Realität", die von der realen Welt nicht zu unterscheiden ist

NVIDIA
Bitte teilen Sie diese Geschichte!

Künstliche Realität ist der nächste Schritt über die künstliche Intelligenz hinaus, und der menschliche Geist könnte dabei vollständig neu verkabelt werden. Gerichtsbeweise könnten gefälscht werden, Gehirnwäsche wäre dauerhaft, Erinnerungen könnten geschaffen werden. Die größte Gefahr besteht für kleine Kinder, deren Verstand nur herausfindet, was Realität ist und was nicht. Der leistungsstärkste Übermittlungsmechanismus sind Virtual Reality-Geräte, die während der Simulation mehrere Sinne stimulieren.  TN Editor

Mithilfe künstlicher Intelligenz haben Experten eine „falsche Realität“ geschaffen, die dem realen Leben so ähnlich ist, dass Sie möglicherweise nicht erkennen können, dass es sich um eine Simulation handelt.

Neue Fortschritte bei der Manipulation von Grafiken durch neuronale Netze führen dazu, dass künstliche Simulationen täuschend echt aussehen.

Entwickler sagen, dass in Zukunft AI-generierte Szenen verwendet werden könnten, um Trainingsdaten für selbstfahrende Autos zu erstellen.

Diese Technologie hat jedoch auch eine dunklere Seite und könnte uns in eine seltsame Hyperrealität führen, in der die Simulation nicht mehr vom wirklichen Leben zu unterscheiden ist.

Forscher des in Santa Clara ansässigen Technologieunternehmens Nvidia haben Bilder erstellt, die KI-generierte Szenen zeigen, die aus echten Szenen erstellt wurden.

"Wir präsentieren qualitativ hochwertige Bildübersetzungsergebnisse für verschiedene herausfordernde, unbeaufsichtigte Bildübersetzungsaufgaben, einschließlich der Übersetzung von Straßenszenenbildern, Tierbildübersetzungen und Gesichtsbildübersetzungen", heißt es auf der Website des Unternehmens.

Forscher unter der Leitung von Ming-Yu Liu verwendeten Bild-zu-Bild-Übersetzungen, um ein Winterbild im Freien in eine von KI erzeugte Sommerszene umzuwandeln.

Sie könnten auch sonniges Wetter in nasses Wetter verwandeln.

Das System stützt sich auf generative Adversarial Networks (GAN).

Forscher des Google Brain AI-Labors entwickelten zunächst GAN, das aus zwei neuronalen Netzen besteht, die aus der Betrachtung von Rohdaten lernen.

[the_ad id = "11018"]

Es verwendet Eingaben, um einen Algorithmus über ein bestimmtes Thema zu "lehren", indem es riesige Mengen an Informationen einspeist.

Einer betrachtet die Rohdaten - in diesem Fall die reale Szene -, während der andere gefälschte Bilder basierend auf dem Datensatz erzeugt.

"Die Verwendung von GANs ist beim unbeaufsichtigten Lernen nicht neu, aber die NVIDIA-Forschung ergab Ergebnisse - mit Schatten, die unter teilweise bewölktem Himmel durch dichtes Laub spähen - weit vor allem, was zuvor gesehen wurde", schrieben Forscher unter der Leitung von Herrn Lui in einem Blog-Post.

"Nur für selbstfahrende Autos könnten Trainingsdaten einmal erfasst und dann unter verschiedenen virtuellen Bedingungen simuliert werden: sonnig, bewölkt, schneebedeckt, regnerisch, nachts usw.", schrieben die Forscher.

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast

0 Kommentare
Inline-Feedbacks
Alle Kommentare anzeigen