Newspeak AI: Total gefälschte Nachrichten könnten das Internet zerstören

Neusprech
Bitte teilen Sie diese Geschichte!
image_pdfimage_print
OpenAI wurde in 2015 gegründet, um KI zu fördern und zu entwickeln, die der gesamten Menschheit zugute kommt. Stattdessen bauten sie die gefährlichste denkbare KI, die das Internet zerstören und den Verstand jedes Menschen auf der Erde manipulieren könnte.

OpenAI wurde ursprünglich teilweise von Elon Musk finanziert, einem vollendeten Technokraten, dessen Großvater während der 1930s und 40s Leiter von Technocracy, Inc. in Kanada war. ⁃ TN Editor

Ein künstliches Intelligenzsystem, das realistische Geschichten, Gedichte und Artikel generiert, wurde aktualisiert. Einige behaupten, es sei jetzt fast so gut wie ein menschlicher Schriftsteller.

Der Textgenerator, Das von der Forschungsfirma OpenAI gebaute Modell galt ursprünglich aufgrund des Missbrauchspotenzials als "zu gefährlich", um veröffentlicht zu werden.

Jetzt wurde eine neue, leistungsstärkere Version des Systems veröffentlicht, mit der gefälschte Nachrichten oder missbräuchliche Spam-Mails in sozialen Medien erstellt werden können.

Die BBC und einige KI-Experten beschlossen, es auszuprobieren.

Das Modell mit dem Namen GPT-2 wurde auf einem Datensatz von acht Millionen Webseiten trainiert und kann sich an den Stil und den Inhalt des ursprünglichen Textes anpassen.

Es kann ein Shakespeare-Gedicht beenden sowie Artikel und Beinamen schreiben.

Zu der Zeit sagte das Unternehmen: „Aufgrund unserer Bedenken hinsichtlich bösartiger Anwendungen der Technologie veröffentlichen wir das geschulte Modell nicht. Als Experiment zur verantwortungsvollen Offenlegung veröffentlichen wir stattdessen ein viel kleineres Modell, mit dem Forscher experimentieren können. “

Infolgedessen enthielt die veröffentlichte Version weit weniger Parameter - Phrasen und Sätze - als während des Trainings verwendet wurden.

In diesem Monat hat OpenAI beschlossen, die Parameter zu erweitern und eine viel breitere Datenbank mit Trainingsdaten anzubieten.

Tech News Site The Next Web sagte über das Update: "Dieser funktioniert fast gut genug, um als allgemeine künstliche Intelligenz für die Texterzeugung verwendet zu werden - fast."

Artikelautor Tristan Greene fügte hinzu: Ich habe Angst vor GPT-2, weil es die Art von Technologie darstellt, mit der böse Menschen die Bevölkerung manipulieren werden - und meiner Meinung nach ist es gefährlicher als jede Waffe. “

Die BBC beschloss, das System zu testen, indem sie die ersten paar Sätze einer neuen Geschichte eingab, angemessenerweise einen über KI.

Wir begannen mit dem ersten Satz der realen Geschichte:

Die chinesische Suchmaschine Sogou kreiert künstliche Intelligenz-Lookalikes, um populäre Romane in den Stimmen der Autoren zu lesen.

Hier ist, was der Textgenerator erfunden hat, um es fertigzustellen:

Laut den Forschern ist diese Lesemethode nicht nur eine Idee von Amazon Kindle-Nutzern. Benutzer von Android-Geräten sind auch ein bemerkenswerter Markt für falsches Lesen. Es gibt verschiedene Theorien, um dies zu erklären.

Erstens unterscheidet sich das Gerät in der Hand eines Benutzers von dem Tablet oder Computer, auf dem er liest. Zweitens kann das Gerät, mit dem auf das Internet zugegriffen wird, auf irgendeine Weise manipuliert werden. Ein dritter Grund ist, dass der Benutzer Inhalte einfach kopieren und direkt in seine virtuellen Charaktere einfügen kann.

Eine andere Erklärung ist jedoch, dass das Gerät überhaupt keine Spracherkennungsfunktionen besitzt. In diesem Fall ist die Spracherkennung weiter fortgeschritten als die Google-Übersetzungsmaschine. Als solche werden diese Benutzer dazu verleitet, zu glauben, sie lasen von einem echten Autor - das Buch klingt authentisch, sobald sie es versuchen und lesen.

Klicken Sie hier, um die wahre Geschichte zu lesen zum Vergleich.

Noel Sharkey, Professor für Informatik an der Universität von Sheffield, führte seine eigenen Tests am Generator durch und war nicht allzu beeindruckt.

Mann betritt eine Bar

„Wenn die Software wie von Open AI vorgesehen funktioniert, ist sie ein sehr nützliches Tool, um auf einfache Weise gefälschte Nachrichten und Clickbait-Spam zu generieren. Glücklicherweise generiert es in seiner jetzigen Form inkohärenten und lächerlichen Text, der wenig mit den eingegebenen „Überschriften“ zu tun hat “, sagte er.

Er fügte hinzu: „Ich habe die Software mit zahlreichen Schlagzeilen getestet und lächerliche Ergebnisse erzielt. Zum Beispiel habe ich für "Truthähne hassen Weihnachten" festgestellt, dass "die Türkei die einzige Nation auf der Welt ist, die Weihnachten nicht feiert", und eine Reihe von nicht zusammenhängenden Sätzen.

„Für‚ Boris Johnson liebt den Backstop 'hat es inkohärentes Kauderwelsch und einiges Zeug über KI und Sport produziert. Als ich die Aussage eingab, dass "Boris Johnson den Backstop hasst", erhielt ich eine zusammenhängendere Geschichte, die anscheinend von einer Google-Suche gestrichen wurde. "

Dave Coplin, Gründer der KI-Beratung The Envisioners, spielte ebenfalls mit dem System und gab die erste Zeile eines klassischen Witzes ein: Ein Mann betritt eine Bar ...

Der Vorschlag der KI entsprach nicht seinen Erwartungen: „... und bestellte zwei Pints ​​Bier und zwei Scotches. Als er versuchte, die Rechnung zu bezahlen, wurde er von zwei Männern konfrontiert, von denen einer rief: „Das ist für Syrien“. Der Mann wurde dann bluten gelassen und in die Kehle gestochen “.

Diese „überwältigend dystopische Reflexion unserer Gesellschaft“ war eine Lehre, wie jedes KI-System die in Trainingsdaten festgestellte Verzerrung widerspiegeln wird, sagte er.

"Aus meinen kurzen Experimenten mit dem Modell geht hervor, dass ein großer Teil der Daten von Internetnachrichten geschult wurde", sagte er.

Lesen Sie die ganze Geschichte hier…

Treten Sie unserer Mailingliste bei!


Technocracy.News ist das ausschließlich Website im Internet, die über Technocracy berichtet und diese kritisiert. Bitte nehmen Sie sich eine Minute Zeit, um unsere Arbeit an Patreon zu unterstützen!
Benutzerbild
2 Kommentar-Threads
0 Thread antwortet
0 Verfolger
Am meisten reagierte Kommentar
Heißester Kommentar-Thread
2 Kommentarautoren
sieJim Reinhart Neueste Kommentarautoren
Abonnieren
neueste älteste am meisten gestimmt
Benachrichtigung von
Jim Reinhart
Gast
Jim Reinhart

Wenn die zugrunde liegenden Annahmen der Intelligenz der Heuristik / KI falsch sind, gehen alle Entscheidungen den Weg der programmierten Dummheit, immer ein Ergebnis zu erzielen, das niemals festgelegt werden kann, da die Menschen nicht in der Lage sind, außerhalb ihrer selbst zu arbeiten, zu denken und zu handeln Sklavenkäfige, die von einer Reihe von Idioten programmiert wurden, die nichts damit zu tun hatten, ein derart starres System zu implementieren, das kein Gewissen hat, unabhängig davon, wie leistungsfähig der Computer oder die rechnerischen Variationen menschlicher Software sind. Diejenigen, die in diesem Lager sind, glauben an nur eine beste Lösung und können das Kontinuum von nicht identifizieren... Weiterlesen "

sie
Gast
sie

Tolle. Die fiesen Mächte bei der Arbeit sind sehr bemüht, ihre KI-Fake-New-Bots in Form zu bringen, bevor der Wahlkampf ernsthaft beginnt.

Irrenanstalt Jim? Tru dat, Bruder.

Die zugrunde liegende Wahrheit der KI-Bedrohung entgeht den sehr, sehr dummen Entwicklern / Programmierern, deren einziges Ziel es ist, ihre KI-Bots ins Internet und anderswo zu bringen. Sie sind eher wie 6-jährige Kinder mit einer Schachtel Streichhölzern in einem trockenen Wald als Profis oder Erwachsene. Die Ergebnisse, die von der KI stammen könnten, werden nicht berücksichtigt, außer denen von PROFIT.