OpenAI wurde ursprünglich teilweise von Elon Musk finanziert, einem vollendeten Technokraten, dessen Großvater während der 1930s und 40s Leiter von Technocracy, Inc. in Kanada war. ⁃ TN Editor
Ein künstliches Intelligenzsystem, das realistische Geschichten, Gedichte und Artikel generiert, wurde aktualisiert. Einige behaupten, es sei jetzt fast so gut wie ein menschlicher Schriftsteller.
Der Textgenerator, Das von der Forschungsfirma OpenAI errichtete Unternehmen galt ursprünglich als „zu gefährlich“, um es wegen des Missbrauchspotenzials öffentlich zu machen.
Jetzt wurde eine neue, leistungsstärkere Version des Systems veröffentlicht, mit der gefälschte Nachrichten oder missbräuchlicher Spam in sozialen Medien erstellt werden können.
Die BBC und einige KI-Experten beschlossen, es auszuprobieren.
Das Modell mit dem Namen GPT-2 wurde auf einem Datensatz von acht Millionen Webseiten trainiert und kann sich an den Stil und den Inhalt des ursprünglichen Textes anpassen.
Es kann ein Shakespeare-Gedicht beenden sowie Artikel und Beinamen schreiben.
Zu der Zeit sagte das Unternehmen: „Aufgrund unserer Bedenken hinsichtlich böswilliger Anwendungen der Technologie veröffentlichen wir das geschulte Modell nicht. Als Experiment zur verantwortungsvollen Offenlegung veröffentlichen wir stattdessen ein viel kleineres Modell, mit dem Forscher experimentieren können. “
Infolgedessen hatte die veröffentlichte Version weit weniger Parameter - Phrasen und Sätze - als während des Trainings verwendet.
In diesem Monat hat OpenAI beschlossen, die Parameter zu erweitern und eine viel breitere Datenbank mit Trainingsdaten anzubieten.
Tech News Site The Next Web sagte über das Update: "Dieser funktioniert fast gut genug, um als allgemeine künstliche Intelligenz für die Texterzeugung verwendet zu werden - fast."
Der Artikelautor Tristan Greene fügte hinzu: Ich habe Angst vor GPT-2, weil es die Art von Technologie darstellt, mit der böse Menschen die Bevölkerung manipulieren werden - und meiner Meinung nach ist dies gefährlicher als jede Waffe. “
Die BBC beschloss, das System zu testen, indem sie die ersten paar Sätze einer neuen Geschichte eingab, angemessenerweise einen über KI.
Wir begannen mit dem ersten Satz der realen Geschichte:
Die chinesische Suchmaschine Sogou kreiert Lookalikes für künstliche Intelligenz, um beliebte Romane in Autorenstimmen zu lesen.
Der Textgenerator hat sich Folgendes ausgedacht, um es zu vervollständigen:
Laut den Forschern ist diese Lesemethode nicht nur eine Idee von Amazon Kindle-Nutzern. Benutzer von Android-Geräten sind auch ein bemerkenswerter Markt für falsches Lesen. Es gibt verschiedene Theorien, um dies zu erklären.
Erstens unterscheidet sich das Gerät in der Hand eines Benutzers von dem Tablet oder Computer, auf dem er liest. Zweitens kann das Gerät, mit dem auf das Internet zugegriffen wird, auf irgendeine Weise manipuliert werden. Ein dritter Grund ist, dass der Benutzer Inhalte einfach kopieren und direkt in seine virtuellen Charaktere einfügen kann.
Eine andere Erklärung ist jedoch, dass das Gerät überhaupt nicht über Spracherkennungsfunktionen verfügt. Wenn dies der Fall ist, ist die Spracherkennung weiter fortgeschritten als die Übersetzungsmaschine von Google. Als solche werden diese Benutzer dazu verleitet zu glauben, dass sie von einem echten Autor lesen - das Buch klingt authentisch, sobald sie versuchen, es zu lesen.
Klicken Sie hier, um die wahre Geschichte zu lesen zum Vergleich.
Noel Sharkey, Professor für Informatik an der Universität von Sheffield, führte seine eigenen Tests am Generator durch und war nicht allzu beeindruckt.
Mann betritt eine Bar
„Wenn die Software wie von Open AI beabsichtigt funktioniert, wäre sie ein sehr nützliches Tool, um auf einfache Weise gefälschte Nachrichten und Clickbait-Spam zu generieren. Glücklicherweise erzeugt es in seiner jetzigen Form inkohärenten und lächerlichen Text mit wenig Bezug zu den eingegebenen 'Überschriften' “, sagte er.
Er fügte hinzu: „Ich habe die Software mit zahlreichen Schlagzeilen getestet und lächerliche Ergebnisse erzielt. Zum Beispiel habe ich für "Truthähne hassen Weihnachten" die "Türkei ist die einzige Nation auf der Welt, die Weihnachten nicht feiert" und eine Reihe von nicht verwandten Sätzen erhalten.
„Für 'Boris Johnson liebt den Backstop' produzierte es inkohärenten Kauderwelsch und einige Dinge über KI und Sport. Als ich die Aussage eingab, dass "Boris Johnson den Backstop hasst", erhielt ich eine kohärentere Geschichte, die anscheinend von einer Google-Suche abgezogen wurde. "
Dave Coplin, Gründer der KI-Beratung The Envisioners, spielte ebenfalls mit dem System und gab die erste Zeile eines klassischen Witzes ein: Ein Mann betritt eine Bar ...
Der Vorschlag der KI entsprach nicht seinen Erwartungen: „… und bestellte zwei Pints Bier und zwei Scotches. Als er versuchte, die Rechnung zu bezahlen, wurde er von zwei Männern konfrontiert, von denen einer „Dies ist für Syrien“ rief. Der Mann blutete und stach in die Kehle. “
Diese "überwiegend dystopische Reflexion unserer Gesellschaft" war eine Lehre, wie jedes KI-System die Verzerrung widerspiegeln wird, die in Trainingsdaten zu finden ist, sagte er.
"Aus meinen kurzen Experimenten mit dem Modell geht ziemlich klar hervor, dass ein großer Teil der Daten durch Internetnachrichten trainiert wurde", sagte er.
Tolle. Die fiesen Mächte bei der Arbeit sind sehr bemüht, ihre KI-Fake-New-Bots in Form zu bringen, bevor der Wahlkampf ernsthaft beginnt.
Irrenanstalt Jim? Tru dat, Bruder.
Die zugrunde liegende Wahrheit der KI-Bedrohung entgeht völlig den sehr, sehr dummen Schöpfern / Programmierern, deren einziges Ziel es ist, ihre KI-Bots im Internet und anderswo freizugeben. Sie sind eher 6-jährige Kinder mit einer Schachtel Streichhölzer in einem trockenen Wald als Profis oder Erwachsene. Die Ergebnisse, die von AI stammen könnten, werden nicht berücksichtigt, außer die von PROFIT.