ChatGPT kann irreversible Folgen für das Lernen und die Entscheidungsfindung haben

Wikipedia Commons
Bitte teilen Sie diese Geschichte!
Es gibt zwei Aspekte des Geistes. Die eine betrifft das, was Sie denken, und die KI kann Ihr Gehirn im Handumdrehen mit Unsinn vollstopfen. Der zweite Aspekt ist, wie Sie denken oder wie Sie zu Schlussfolgerungen, Überzeugungen usw. gelangen. ChatGPT und Look-a-Likes haben das Potenzial, Ihr Gehirn neu zu verdrahten und Ihre Entscheidungswege leise zu ändern. Besonders gefährlich ist dies für Jugendliche bis 25, da die Gehirne auf Lebenszeit eingestellt werden. ⁃ TN-Editor

Die moderne Flugbahn der Menschheit wurde durch mehrere Wendepunkte definiert. Unter anderem die Erfindung der Elektrizität, der Glühbirne, des Telegrafensystems, des Computers und des Internets signalisierten neue unumkehrbare Meilensteine ​​in unserem modus vivendi. Die kürzliche Einführung von ChatGPT könnte sich jedoch als mehr als ein Wendepunkt erweisen. Es kann eine dauerhafte Störung unserer Lebensweise sein; es ist bloopers und Wokistische Wutanfälle trotz.

ChatGPT ist jetzt die am schnellsten wachsende Verbraucher-App in der Geschichte. Innerhalb von zwei Monaten nach seiner Einführung im November 2022 konnte ChatGPT mehr als 100 Millionen Benutzer gewinnen. Sein Entwickler OpenAI, der mit 375 Mitarbeitern und dünnen Einnahmen begann, wird jetzt bewertet 30 Milliarden Dollar und steigend.

Wie funktioniert es? Im Großen und Ganzen aggregiert ChatGPT Daten aus Online-Quellen und synthetisiert Antworten auf eine Anfrage innerhalb von Sekunden. Es ist derzeit das vielseitigste einer Reihe neuer großer Sprachmodelle, die auf künstlicher Intelligenz basieren. Es kann Musiknoten komponieren, Softwarecodes schreiben, mathematische Gleichungen lösen, Romane, Essays und Dissertationen schreiben, neben einer Vielzahl anderer Aufgaben. Es kann von Wissenschaftlern verwendet werden, um ihre Originalarbeiten – geschrieben in einer Muttersprache – ins Englische zu übersetzen. Mit der Weiterentwicklung von KI-Tools wie ChatGPT können sie menschliche Aktivitäten in einem breiten, aber unkalkulierbaren Spektrum ersetzen. Hunderte Millionen Arbeitsplätze könnten auf dem Spiel stehen.

Seine unmittelbarsten Auswirkungen werden jedoch im Bereich des menschlichen Lernens und der Entscheidungsfindung liegen.

Menschliches Lernen

Menschliches Lernen ist ein lebenslanger Prozess, der von unzähligen Faktoren geprägt wird. Dazu gehören (ohne darauf beschränkt zu sein) Erfahrung, Instinkt, Interaktionen, Fehler (und Korrekturen), Selbstbeobachtung, persönliche Angst, Kühnheit, Anleitung, Textdaten und individuelle Psyche. Die meisten dieser Voraussetzungen sind ChatGPT fremd, und dazu gehört auch das Axiom „Ohne Fleiß kein Preis“ für menschliches Lernen und Entwicklung.

KI-Tools sind auch unbeeinflusst von menschlichen Einschränkungen wie Zeitdruck, Müdigkeit, „freien Tagen“ und Beschwerden. Im Laufe der Zeit haben diese Einschränkungen die Menschen dazu veranlasst, ihre Aufgaben zu delegieren existenzielle Notwendigkeit zu denken und zu lernen zu Maschinen. Auch die unaufhaltsame Digitalisierung hat uns geübt wissen, wo oder wie man nach Informationen sucht statt lernen, wie man dieselben Informationen behält. Wie viele von uns merken sich heutzutage die Telefonnummern unserer Familie, Kollegen und Freunde? Eine digitale Krücke ist heute ein Muss für das Navigieren auf Straßen (z. B. Waze, Google Maps), Kochen (Videokanäle), das Reparieren von Geräten (DIY-Kanäle) und eine Vielzahl anderer alltäglicher Aktivitäten. Unsere täglichen Aufgaben werden schnell mehr mechanistisch, Verdrängung unserer Fähigkeit, etwas Neues oder Bahnbrechendes zu schaffen. Wir werden zu Verlängerungen unserer Maschinen und nicht umgekehrt. Infolgedessen steht die Menschheit jetzt vor einer Ära kollektiver Betäubung und Konformität.

Es gibt keinen besseren Weg, um abzuschätzen, wie KI-Tools unsere Denk- und Lernfähigkeit beeinflussen können, als die Auswirkungen von ChatGPT auf den globalen Bildungssektor zu beobachten. Studenten und Pädagogen nutzen ChatGPT jetzt als pädagogische Ergänzung, Cheat-Tool oder als digitale Krücke.

Eine kürzlich Umfrage von der Walton Family Foundation und Impact Research fanden heraus, dass die meisten Lehrer (51%) und viele Schüler ChatGPT bereits in Schulen verwenden. Eine weitere Umfrage mit 1,000 US-Colleges fanden heraus, dass 30 % der Studenten ChatGPT für schriftliche Aufgaben verwendeten, wobei 60 % von ihnen es für „mehr als die Hälfte ihrer Aufgaben“ verwendeten. ChatGPT hat viele bestanden Prüfungen auf hohem Niveau, einschließlich der Wharton MBA-Prüfung, der US-amerikanischen medizinischen Zulassungsprüfung, mehrerer juristischer Prüfungen und eines Abschlusses an der Stanford Medical School.

Papiermühlen kann ChatGPT auch verwenden, um wissenschaftliche Artikel und Berichte zu erstellen. Forscher, die solche erfundenen Daten verwenden oder den Forschungsprozess durch generative KI absichtlich verfälschen, können am Ende Richtlinien und Produkte fördern, die der Gesellschaft schaden. Eine weitere Coronapyschose kann sich die Welt nicht leisten!

Alles in allem werden Schüler und Lehrer gleichermaßen zunehmend von der allmächtigen KI eingeschüchtert. KI legt die Messlatte für Studenten, Professoren und eine Vielzahl von Fachleuten höher. Auch das Aussortieren echter Artefakte wird immer schwieriger.

As Christoph Kanan, Associate Professor of Computer Science an der University of Rochester, bemerkte kürzlich: „Es wird immer schwieriger herauszufinden, wer was weiß und wer Hilfe von Dingen wie ChatGPT erhält.“ Einige Schulen in New York, Hongkong, Bangalore und anderswo haben Schülern aufgrund von Bedenken hinsichtlich „Plagiat“, Betrug und Fehlinformationen die Verwendung von ChatGPT in ihren Aufgaben untersagt.

Während ChatGPT ein großartiges Werkzeug ist, um komplexe Konzepte und Stränge zu studieren Wissensintegration, in Wirklichkeit kann es die meisten Benutzer in gefügige Konsumenten von KI-generierten Daten verwandeln. Längere digital vermittelte Passivität lässt die Denkfähigkeit verkümmern.

Ein weiterer Nachteil von ChatGPT ist sein Potenzial, die viel diskutierte digitale Kluft zu vergrößern. Bewerbungen für Jobs, Beförderungen, Stipendien usw. werden mit überwältigender Mehrheit die digitalen Besitzenden gegenüber den digitalen Habenichtsen bevorzugen, insbesondere wenn Abonnementgebühren für den Zugriff erforderlich sind.

Pädagogen sind derzeit nicht in der Lage, die ethischen Grenzen von ChatGPT zu definieren und nehmen eine abwartende Haltung ein. Der ethische Rahmen selbst kann von oder mit Hilfe von Tools wie ChatGPT geschrieben werden. Aini Suzana Ariffin, Associate Professor of Policy Studies an der Universiti Teknologi Malaysia, ist überzeugt, dass Pädagogen nicht beunruhigt sein müssen. „Ein ethischer Rahmen für generative KI-Tools wie ChatGPT wird klären, was den Lernprozess verbessert und was ihn behindert. Dies kann einige Zeit dauern und viele Diskussionen beinhalten, aber wir fangen besser jetzt an.“

Menschliche Entscheidungsfindung

Die Regierung von Singapur hat kürzlich angekündigt, dass ihre Beamten ChatGPT verwenden werden, um ihre Arbeitsbelastung zu verringern. Dies ist sinnvoll, da sich wiederholende oder alltägliche Aufgaben durch KI-Tools beschleunigt werden können. Da generative KI-Tools jedoch exponentiell intelligenter und effizienter werden – was sie in der Tat tun werden – könnte der Governance-Komplex allmählich von Maschinen an sich gerissen werden. Diese entstehende Form der sozialen Ordnung nennt man „Algokratie“; eine, in der Algorithmen, insbesondere KI und Blockchain, auf das gesamte Spektrum der Regierung angewendet werden. Algokratie bringt unweigerlich Predictive Governance mit sich. Die Berliner Polizei hat bereits eine embryonale Form der Algokratie in sich aufgenommen prädiktive Polizeiarbeit System. Stehen wir vor einer Minority Report Gesellschaft in naher Zukunft?

ChatGPT beschleunigt auch den Informationsfluss in die obersten Entscheidungsebenen einer Regierung oder Organisation – und umgeht die traditionelle Gatekeeper-Rolle von Bürokratien auf den mittleren Ebenen. Während dies als willkommene Entwicklung gegen Bürokratie angekündigt werden kann, kann das Fehlen traditioneller Kontrollen und Gegengewichte zu zwingenden Entscheidungen mit beklagenswerten sozioökonomischen Auswirkungen führen. Stellen Sie sich vor, ein solches algorithmisches Entscheidungsfindungssystem in die Atomwaffeninfrastruktur einer militärischen Supermacht zu verpflanzen?

ChatGPT läuft auch Gefahr, die Privatsphäre zu verletzen und personenbezogene Daten in Sektoren wie dem Bankwesen und dem Gesundheitswesen preiszugeben. Die Effizienz generativer KI-Tools wird durch eine ständig wachsende Datenmenge angetrieben, die ständig in ihre neuronalen Netzwerke zurückgeschleift wird. Dieses Streben nach Genauigkeit, Effizienz und Geschwindigkeit kann dazu führen, dass private Daten im Rahmen des maschinellen Lernprozesses kompromittiert werden.

Im Bereich Gesundheitswesen, Einverständniserklärung zur KI-unterstützten Gesundheitsversorgung reduziert werden, da die Patienten entweder nicht verstehen, wozu sie ihre Zustimmung geben, oder einem „intelligenten und unparteiischen“ maschinenbasierten System übermäßig vertrauen. Bedrohlicher wird es, wenn in kritischen Situationen Triage eingesetzt wird. Traditionell wird die Triage von der Integrität und den Fähigkeiten des anwesenden medizinischen Personals sowie den verfügbaren Ressourcen bestimmt in situ. Ein Algorithmus kann jedoch leidenschaftslos eine Triage basierend auf dem „Wert eines Patienten für die Gesellschaft“ arrangieren; aus Daten abgeleitete Lebenserwartung; und Kosten im Zusammenhang mit der Rettung des Lebens des Patienten.

Die ethischen Dimensionen der KI-vermittelten Triage sind nicht geklärt. Es ist jedoch erwähnenswert, dass Microsoft-Mitbegründer Bill Gates dafür ist Todestafeln für unheilbar Kranke, die „keinen Nutzen für die Gesellschaft“ haben und deren Erhaltung angeblich die Arbeitsplätze von „hunderttausend Lehrern“ aufwiegen könnte. Wenn wir diese Logik weiter ausdehnen, könnten wir Zeuge eines zukünftigen Mandats für „intelligente Babys“ werden, die angeblich eine „intelligente Gesellschaft“ bevölkern werden. Ausgeklügelte Algorithmen der Zukunft können die genetischen Besitzenden von den genetischen Besitzlosen durch fötale DNA-Tests und Instrumente wie die genetische Präimplantationsdiagnostik (PID) aussortieren. Dieser eugenische Impetus wurde euphemistisch als „fortpflanzungsfördernde Wohltätigkeit“ bezeichnet. Übrigens, Bill Gates hat eine chinesische Firma finanziell unterstützt, die an der Herstellung von „Superbabys“ arbeitet. Ist es da verwunderlich, dass Microsoft ein Hauptfinanzierer von OpenAI ist?

Wird am Ende des Tages ein ethisches KI-Framework von Tech-Titanen blockiert, die das Design, die Parameter und die Ziele generativer KI-Tools bestimmen können? Oder werden unsere gewählten Führer versuchen, eine synergetische Koexistenz zwischen KI und Menschen anzustreben.

Lesen Sie die ganze Geschichte hier…

Über den Herausgeber

Patrick Wood
Patrick Wood ist ein führender und kritischer Experte für nachhaltige Entwicklung, grüne Wirtschaft, Agenda 21, Agenda 2030 und historische Technokratie. Er ist Autor von Technocracy Rising: Das trojanische Pferd der globalen Transformation (2015) und Co-Autor von Trilaterals Over Washington, Band I und II (1978-1980) mit dem verstorbenen Antony C. Sutton.
Abonnieren
Benachrichtigung von
Gast

12 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
Val Baldrian

ChatGPT kann irreversible Folgen haben. Technokraten kümmern sich nicht um den mentalen und psychologischen Zustand der Bevölkerung, und sie tun es trotzdem, trotz der im Artikel diskutierten Erkenntnisse. Sie können sich nicht helfen. Sie wollen, dass die Bevölkerung in Gruppendenken und sinnlosen, auf Kontrolle basierenden Ideologien feststeckt, und haben es sich zur Aufgabe gemacht, den Individualismus so weit wie möglich einzuschüchtern und zu beseitigen. Sie stehen auf Simulationen und Annäherungen, während sie sich in der Denkweise materieller Reduktionisten und Modelle befinden, die alle die Natur des Geistes leugnen, der wir wirklich sind. Sie sind also existentiell unreif und gefährlich und hängen an mehreren... Lesen Sie mehr »

Anne

Gute Argumente. Die Erfinder böser Dinge wollen zweifellos, dass auch alle mit dem Teufel und dem Antichristen einig sind. Deshalb habe ich heute kein Vertrauen in die meisten medizinischen oder technologischen Fortschritte. Es ist mir so klar wie der Tag, dass das alles zum System der Bestien und der großen Trübsal führt.

Erik Nielsen

Gut. Ich sehe viele Jugendliche, die bereits in einer mentalen Matrix gefangen sind, aus der sie nicht herauskommen.

Sie können keine einfachen logischen Schlussfolgerungen ziehen und ignorieren einfach die dokumentierte Realität.

Aber das Problem für uns ist, wie kommen wir von ihrem Haken weg? Sie hängen als Blei an uns, um ihre einfache Weltanschauung zu machen.
Wir können ein negatives Leben als psychologische Krankenschwestern für 3-5 Milliarden geistig Behinderte, die sich als digitale Nomaden für Filmstars halten, nicht weiterführen.

[…] Originalartikel lesen […]

Anne

ChatGPT kann ohne mein Zutun lernen. Und ich kann ohne seine Hilfe lernen. Wenn ich darüber nachdenke. ChatGPT lernt kostenlos mehr, indem es Datenbanken nach Anfragen von Personen durchsucht, die es verwenden. Ich möchte CharGPT nicht kennenlernen. Ich möchte auch nicht, dass ChatGPT von meiner Existenz erfährt. Moderne Technologie kann eine gute Sache sein, wenn sie von ethischen Menschen mit guten Absichten geschaffen wird. Aber wenn klar ist, dass der Teufel im Detail steckt. Ich halte mich von allem und jedem fern, den er in der Hand hat.

[…] ChatGPT kann irreversible Folgen für das Lernen und die Entscheidungsfindung haben […]

[…] ChatGPT kann irreversible Folgen für das Lernen und die Entscheidungsfindung haben […]

Elle

Dieses Programm stellt den letzten Nagel im Sarg der Verdummung der Menschheit dar, direkt nach der öffentlichen Aufklärung. Wahrheitssucher müssen jetzt online wachsam sein, wissen, woher die Fakten zu Themen ursprünglich gekommen sind, und eine Bibliothek mit persönlichem Wissen aufbauen, die geteilt werden kann, damit wir, wenn wir Informationen sehen, die vom „ChatCrap“ wiederholt werden, diese als solche erkennen und vermeiden . Dies sollte zunächst nicht sehr schwierig sein, bis die Tyrannen den Zugang zu echten Informationen sperren, von denen wir wissen, dass sie kommen werden. Bis dahin gibt es SO viele Wissensbewahrer online, die herumstöbern... Lesen Sie mehr »

DawnieR

„ChatGPT kann irreversible Folgen für das Lernen und die Entscheidungsfindung haben“……

Wir sind LOOOOOOOOOONG darüber hinaus, aufgrund unserer SKOOLS (mit Absicht geschrieben)!!

[…] ChatGPT kann irreversible Folgen für das Lernen und die Entscheidungsfindung haben […]

[…] ChatGPT kann irreversible Folgen für das Lernen und die Entscheidungsfindung haben […]

[…] 15. MÄRZ 2023 | CHATGPT KANN IRREVERSIBLE KONSEQUENZEN FÜR DAS LERNEN UND DIE ENTSCHEIDUNGSFINDUNG HABEN […]