KI-Tools können verwendet werden, um die Arbeit von Autoren zu „bearbeiten“ und zu „polieren“, sagen die Organisatoren der Konferenz, aber Texte, die „vollständig“ von KI produziert wurden, sind nicht erlaubt. Da stellt sich die Frage: Wo ziehen Sie die Grenze zwischen Redaktion und Schreiben?
Eine der weltweit renommiertesten Konferenzen zum maschinellen Lernen hat Autoren verboten, KI-Tools wie ChatGPT zum Verfassen wissenschaftlicher Arbeiten zu verwenden, und damit eine Debatte über die Rolle von KI-generiertem Text in der Wissenschaft ausgelöst.
Die International Conference on Machine Learning (ICML) kündigte die Richtlinie Anfang dieser Woche an und erklärte: „Aufsätze, die Text enthalten, der aus einem groß angelegten Sprachmodell (LLM) wie ChatGPT generiert wurde, sind verboten, es sei denn, der produzierte Text wird als Teil des präsentiert experimentelle Analyse des Papiers.“ Die Nachricht löste Funken aus breite Diskussion in den sozialen Medien, wobei KI-Akademiker und -Forscher die Politik sowohl verteidigen als auch kritisieren. Die Organisatoren der Konferenz antworteten mit Veröffentlichung einer längeren Stellungnahme ihre Denkweise erklären. (Die ICML antwortete auf Anfragen von The Verge um einen Kommentar zu erhalten, indem Sie uns auf dieselbe Aussage verweisen.)
Laut ICML ist der Aufstieg öffentlich zugänglicher KI-Sprachmodelle wie ChatGPT – ein Allzweck-KI-Chatbot, der im November letzten Jahres im Internet gestartet – stellt eine „spannende“ Entwicklung dar, die dennoch „unerwartete Folgen [und] unbeantwortete Fragen“ mit sich bringt. Die ICML sagt, dass dies Fragen darüber beinhaltet, wer besitzt die Ausgabe solcher Systeme (Sie werden in öffentlichen Daten geschult, die normalerweise ohne Zustimmung gesammelt werden, und geben diese Informationen manchmal wörtlich wieder) und ob von KI generierte Texte und Bilder „als neuartig oder als bloße Ableitungen bestehender Arbeiten angesehen werden sollten“.
Die letztere Frage ist mit einer kniffligen Debatte über die Urheberschaft verbunden – das heißt, wer „schreibt“ einen KI-generierten Text: die Maschine oder ihr menschlicher Controller? Dies ist besonders wichtig, da die ICML nur Texte verbietet, die „vollständig“ von KI produziert wurden. Die Organisatoren der Konferenz sagen, dass sie es sind nicht die Verwendung von Tools wie ChatGPT „zum Bearbeiten oder Polieren von von Autoren geschriebenem Text“ verbieten und beachten, dass viele Autoren bereits „halbautomatische Bearbeitungstools“ wie die Grammatikkorrektursoftware Grammarly für diesen Zweck verwendet haben.
„Es ist sicher, dass diese und viele weitere Fragen im Laufe der Zeit beantwortet werden, da diese generativen Modelle im großen Maßstab immer mehr Verbreitung finden. Auf keine dieser Fragen haben wir jedoch noch klare Antworten“, schreiben die Organisatoren der Konferenz.
Infolgedessen sagt die ICML, dass ihr Verbot von KI-generiertem Text im nächsten Jahr neu bewertet wird.
Die Fragen, mit denen sich die ICML befasst, sind jedoch möglicherweise nicht einfach zu lösen. Die Verfügbarkeit von KI-Tools wie ChatGPT sorgt bei vielen Organisationen für Verwirrung, von denen einige mit eigenen Verboten reagiert haben. Letztes Jahr Codierung der Q&A-Site Stack Overflow Benutzer daran gehindert, mit ChatGPT erstellte Antworten zu senden, während das Bildungsministerium von New York City hat erst diese Woche den Zugriff auf das Tool für jeden in seinem Netzwerk blockiert.
In jedem Fall gibt es unterschiedliche Befürchtungen über die schädlichen Auswirkungen von KI-generiertem Text. Einer der häufigsten ist, dass die Ausgabe dieser Systeme einfach unzuverlässig ist. Diese KI-Tools sind riesige Autovervollständigungssysteme, die darauf trainiert sind, vorherzusagen, welches Wort in einem bestimmten Satz auf das nächste folgt. Als solche haben sie keine fest codierte Datenbank mit „Fakten“, auf die sie zurückgreifen können – nur die Fähigkeit, plausibel klingende Aussagen zu schreiben. Das bedeutet sie neigen dazu, falsche Informationen als Wahrheit darzustellen da ob ein gegebener Satz Geräusche plausible übernimmt keine Gewähr für deren Richtigkeit.
Im Fall des ICML-Verbots von KI-generiertem Text besteht eine weitere potenzielle Herausforderung darin, zwischen Texten zu unterscheiden, die nur von KI „poliert“ oder „bearbeitet“ wurden, und solchen, die von diesen Tools „vollständig produziert“ wurden. An welchem Punkt stellen eine Reihe kleiner KI-gesteuerter Korrekturen eine größere Umschreibung dar? Was ist, wenn ein Benutzer ein KI-Tool bittet, seine Arbeit in einem knackigen Abstract zusammenzufassen? Zählt dies als frisch erstellter Text (weil der Text neu ist) oder als bloßes Polieren (weil es eine Zusammenfassung von Wörtern ist, die der Autor geschrieben hat)?
Das ist so, als würde man 1905 ein Gesetz erlassen, das Autos erlaubt, aber nur, wenn sie von einem Pferd gezogen werden.
Verbieten Sie Autoren, KI-Tools zu verwenden! Viel Glück damit. Und OJ Simpson sucht immer noch nach dem wahren Mörder.
Ich habe mir gerade Ihren Quickening Report zu diesem Thema angehört und beschlossen, hier einen Kommentar abzugeben. (1) Sie geben an, dass ChatGPT Deep Fakes von Voice-Over für Videos durchführen kann. Dies könnte auch ein Propagandatrick sein, damit die Akteure des Deep State leugnen können, was sie wirklich auf den von uns gesammelten Videobeweisen gesagt haben. (2) Ich kann nur sicher sein, dass ich nicht weiß, was am anderen Ende der Schnittstelle ist. Wer oder was ist der Mann hinter dem Vorhang? Wann ist es eine KI, ein Mensch oder ein Propagandist? Siehe auch das Konzept von Mechanical... Lesen Sie mehr »