Open AI und ChatGPT: Die Hirten der Singularität oder Highway to Doom?

Adobe Stock
Bitte teilen Sie diese Geschichte!
Orwell sagte: „Lass es nicht passieren.“ Nun, es ist passiert. Der KI-Geist ist aus der Flasche und verbreitet sich wie ein Lauffeuer auf der ganzen Welt. Es wird auf allen Ebenen der Gesellschaft strukturell verankert. Für jeden potenziell guten Nutzen gibt es mehrere schreckliche Einsatzmöglichkeiten, wie zum Beispiel die Herstellung einer tödlichen Biowaffe in nur zwei Stunden oder das Treiben von jemandem in den Selbstmord. Derzeit gibt es keine Möglichkeit, KI einzudämmen, da zu viele Unternehmen und Länder sie einsetzen. Technokraten bauen, weil sie dazu gezwungen werden, und nicht, weil es nachweislich notwendig ist.⁃ TN Editor

GESCHICHTE AUF EINEN BLICK

> Experten warnen davor, dass künstliche Intelligenz (KI) die Menschheit und die Zivilisation, wie wir sie kennen, zerstören könnte, wenn wir die Entwicklung und den Einsatz von KI nicht eindämmen und einige Sicherheitsmaßnahmen einführen

> Die Öffentlichkeit muss auch die Erwartungen dämpfen und sich darüber im Klaren sein, dass KI-Chatbots immer noch enorme Mängel aufweisen und nicht verlässlich sind. Ein Anwalt hat dies kürzlich auf die harte Tour herausgefunden, als er ChatGPT seine Rechtsrecherchen durchführen ließ. Keine der von ChatGPT zitierten Rechtsprechungen war real

> Im Jahr 2022 zog Facebook seinen wissenschaftsorientierten Chatbot Galactica nach nur drei Tagen zurück, da dieser völlig erfundene Ergebnisse lieferte

> Der unregulierte Einsatz autonomer KI-Waffensysteme gehört vielleicht zu den alarmierendsten Entwicklungen. Außenpolitikexperten warnen, dass autonome Waffentechnologien aktuelle Nuklearstrategien destabilisieren und das Risiko von Präventivangriffen erhöhen würden. Sie könnten auch mit chemischen, biologischen, radiologischen und nuklearen Waffen kombiniert werden und so eine existenzielle Bedrohung darstellen

> KI kann auch eine erhebliche Bedrohung für die Biosicherheit darstellen. MIT-Studenten haben gezeigt, dass Chatbots mit großen Sprachmodellen es jedem ermöglichen können, in nur einer Stunde Biowaffen zu entwerfen

Wird künstliche Intelligenz (KI) die Menschheit auslöschen? Könnte es die „perfekte“ tödliche Biowaffe schaffen, um die Bevölkerung zu dezimieren?1,2 Könnte es unsere Waffen übernehmen,3,4 oder Cyberangriffe auf kritische Infrastrukturen wie das Stromnetz initiieren?5

Nach Ansicht einer schnell wachsenden Zahl von Experten ist jedes dieser und andere höllische Szenarios durchaus plausibel, es sei denn, wir zügeln die Entwicklung und den Einsatz von KI und beginnen mit der Einführung einiger Sicherheitsvorkehrungen.

Die Öffentlichkeit muss auch die Erwartungen dämpfen und sich darüber im Klaren sein, dass KI-Chatbots immer noch enorme Mängel aufweisen und man sich nicht darauf verlassen kann, egal wie „intelligent“ sie erscheinen oder wie intelligent sie sind beschimpfe dich dafür, dass du daran zweifelst.

George Orwells Warnung

Das Video oben in diesem Artikel zeigt einen Ausschnitt aus einem der letzten Interviews, die George Orwell vor seinem Tod gab, in dem er erklärte, dass sein Buch „1984“, das er als Parodie bezeichnete, durchaus wahr werden könnte, so wie es war die Richtung, in die sich die Welt bewegte.

Heute ist deutlich zu sehen, dass wir den Kurs nicht geändert haben und die Wahrscheinlichkeit, dass „1984“ Wirklichkeit wird, größer denn je ist. Laut Orwell gibt es nur einen Weg, um sicherzustellen, dass seine dystopische Vision nicht wahr wird, und zwar indem man sie nicht wahr werden lässt. „Es hängt von dir ab“, sagte er.

Während die künstliche allgemeine Intelligenz (AGI) von Tag zu Tag näher rückt, rücken auch die letzten Puzzleteile des technokratischen, transhumanistischen Traums, den Globalisten seit Jahrzehnten hegen, immer näher. Sie beabsichtigen, eine Welt zu schaffen, in der die KI die Massen kontrolliert und unterwirft, während sie allein die Vorteile – Reichtum, Macht und Leben außerhalb des Kontrollnetzes – ernten können, und sie werden es bekommen, es sei denn, wir werden klug und beginnen, nach vorne zu schauen.

Ich glaube, wie viele andere auch, dass KI unglaublich nützlich sein kann. Aber ohne starke Leitplanken und einwandfreie Moral als Orientierungshilfe kann die KI leicht Amok laufen und enormen und möglicherweise irreversiblen Schaden anrichten. Ich empfehle, den Public Citizen-Bericht zu lesen, um besser zu verstehen, womit wir konfrontiert sind und was dagegen getan werden kann.

Annäherung an die Singularität

„Die Singularität“ ist ein hypothetischer Zeitpunkt, an dem das Wachstum der Technologie außer Kontrolle gerät und – im Guten wie im Schlechten – unumkehrbar wird. Viele glauben, dass die Singularität dazu führen wird, dass die KI von ihren Schöpfern selbstbewusst und unkontrollierbar wird, aber das ist nicht die einzige Möglichkeit, wie sich die Singularität auswirken könnte.

Einige glauben, dass die Singularität bereits vorhanden ist. In einem Artikel der New York Times vom 11. Juni 2023 schrieb der Tech-Reporter David Streitfeld:6

„KI ist die ultimative Einführung neuer Produkte im Silicon Valley: Transzendenz auf Abruf. Aber es gibt eine dunkle Wendung. Es ist, als ob Technologieunternehmen selbstfahrende Autos mit dem Vorbehalt eingeführt hätten, dass sie explodieren könnten, bevor man Walmart erreicht.

„Das Aufkommen der künstlichen allgemeinen Intelligenz wird Singularität genannt, weil es so schwer ist, vorherzusagen, was danach passieren wird“, sagte Elon Musk … letzten Monat gegenüber CNBC. Er sagte, er gehe davon aus, dass ein „Zeitalter des Überflusses“ entstehen würde, aber es bestehe „eine gewisse Chance“, dass es „die Menschheit zerstört“.

Der größte Befürworter von KI in der Tech-Community ist Sam Altman, Geschäftsführer von OpenAI, dem Start-up, das mit seinem ChatGPT-Chatbot den aktuellen Hype auslöste … Aber er sagt auch, dass Herr Musk … möglicherweise Recht hat.

Herr Altman hat einen offenen Brief unterzeichnet7 Letzten Monat veröffentlichte das Center for AI Safety, eine gemeinnützige Organisation, dass „das Risiko des Aussterbens durch KI gemindert wird.“ „sollte eine globale Priorität sein“, das liegt auf Augenhöhe mit „Pandemien und Atomkrieg“ …

Die Innovation, die die heutige Singularitätsdebatte antreibt, ist das große Sprachmodell, die Art von KI-System, das Chatbots antreibt …

„Wenn Sie eine Frage stellen, interpretieren diese Modelle, was sie bedeutet, bestimmen, was ihre Antwort bedeuten soll, und übersetzen diese dann wieder in Worte – wenn das keine Definition von allgemeiner Intelligenz ist, was dann?“ sagte Jerry Kaplan, ein langjähriger KI-Unternehmer und Autor von „Künstliche Intelligenz: Was jeder wissen muss“ …

„Wenn das nicht ‚die Singularität‘ ist, dann ist es sicherlich eine Singularität: ein transformativer technologischer Schritt, der eine ganze Reihe von Kunst, Wissenschaft und menschlichem Wissen auf breiter Front beschleunigen wird – und einige Probleme schaffen wird“, sagte er …

In Washington, London und Brüssel machen sich die Gesetzgeber die Chancen und Probleme der KI bewusst und beginnen, über Regulierung zu sprechen. Herr Altman ist auf einer Roadshow, um frühe Kritik abzuwehren und OpenAI als Hirte der Singularität zu fördern.

Dazu gehört Offenheit für Regulierung, aber wie das genau aussehen würde, ist unklar … „Es gibt niemanden in der Regierung, der es richtig machen kann“, sagte Eric Schmidt, ehemaliger CEO von Google, in einem Interview … und plädierte für AI Self -Verordnung."

Generative KI automatisiert weitreichende Schäden

Es ist wahrscheinlich keine gute Idee, dass sich die KI-Industrie – zu der auch der militärisch-industrielle Komplex gehört – selbst überwacht und reguliert, wenn man bedenkt, dass Gewinne und die Erlangung von Vorteilen gegenüber Kriegsfeinden die Hauptantriebsfaktoren sind. Beide Denkweisen tendieren dazu, humanitäre Belange in den Hintergrund zu rücken, sofern sie diese überhaupt berücksichtigen.

In einem Bericht vom April 20238 von Public Citizen warnen Rick Claypool und Cheyenne Hunt, dass „der schnelle Einsatz generativer KI eine Vielzahl automatisierter Schäden birgt.“ Wie der Verbraucherschützer Ralph Nader feststellte:9

„Claypool macht keine Übertreibungen oder schrecklichen Hypothesen über Chatbots, die die Menschheit kontrollieren. Er schließt daraus, was in fast allen Bereichen unserer Gesellschaft bereits zu geschehen beginnt …

Claypool führt Sie durch „die Schäden in der realen Welt, die die überstürzte Veröffentlichung und Monetarisierung dieser Tools verursachen kann – und in vielen Fällen bereits verursacht“ … Die verschiedenen Abschnittstitel seines Berichts lassen die kommenden Missbräuche ahnen:

„Schädigung der Demokratie“, „Verbraucherbedenken“ (Abzocke und umfassende Überwachung der Privatsphäre), „Verschlimmerung der Ungleichheit“, „Untergrabung von Arbeitnehmerrechten“ (und Arbeitsplätzen) und „Umweltbedenken“ (Schädigung der Umwelt durch ihren COXNUMX-Fußabdruck).

Bevor er konkret wird, gibt Claypool einen Ausblick auf seine Schlussfolgerung: „Bis es sinnvolle staatliche Schutzmaßnahmen gibt, um die Öffentlichkeit vor den Schäden generativer KI zu schützen, brauchen wir eine Pause“ …

Unter Ausnutzung ihrer bestehenden Autorität hat die Federal Trade Commission in den Worten des Autors „… bereits gewarnt, dass generative KI-Tools leistungsstark genug sind, um synthetische Inhalte zu erstellen – plausibel klingende Nachrichten, maßgeblich wirkende akademische Studien, Falschbilder und Deepfake-Videos – und.“ dass es immer schwieriger wird, diese synthetischen Inhalte von authentischen Inhalten zu unterscheiden.“

Er fügt hinzu: „...diese Tools sind für nahezu jeden einfach zu verwenden.“ Big Tech eilt auf der Suche nach großen Gewinnen allen rechtlichen Rahmenbedingungen für KI weit voraus und drängt gleichzeitig auf Selbstregulierung anstelle der durch die Rechtsstaatlichkeit auferlegten Zwänge.

Die vorhergesagten Katastrophen nehmen kein Ende, sowohl von Seiten der Branche als auch von externen Kritikern. Zerstörung von Lebensgrundlagen; schädliche Auswirkungen auf die Gesundheit durch die Werbung für Quacksalber; Finanzbetrug; politische und Wahlfälschungen; Entzug der Information Commons; Subversion des offenen Internets; Ihr Gesichtsbild, Ihre Stimme, Ihre Worte und Ihr Verhalten vortäuschen; jeden Tag dich und andere mit Lügen betrügen.“

Der Verteidiger lernt auf die harte Tour, ChatGPT nicht zu vertrauen

Ein aktuelles Beispiel, das die Notwendigkeit radikaler Vorsicht verdeutlicht, war ein Gerichtsverfahren, bei dem der Staatsanwalt ChatGPT für seine Rechtsrecherchen nutzte.10 Nur ein Problem. Keine der von ChatGPT zitierten Rechtsprechungen war real. Es versteht sich von selbst, dass die Fälschung von Rechtsprechung verpönt ist, also lief es nicht gut.

Als keiner der Verteidiger oder der Richter die zitierten Entscheidungen finden konnte, erkannte der Anwalt Steven A. Schwartz von der Kanzlei Levidow, Levidow & Oberman schließlich seinen Fehler und überließ sich der Gnade des Gerichts.

Schwartz, der seit 30 Jahren als Anwalt in New York tätig ist, behauptete, er sei sich „der Möglichkeit nicht bewusst, dass der Inhalt falsch sein könnte“ und habe nicht die Absicht gehabt, das Gericht oder den Angeklagten zu täuschen. Schwartz behauptete, er habe ChatGPT sogar gebeten, zu überprüfen, ob die Rechtsprechung real sei, und es hieß, dies sei der Fall. Berichten zufolge erwägt der Richter Sanktionen.

Wissenschafts-Chatbot verbreitet Unwahrheiten

In ähnlicher Weise musste Facebook im Jahr 2022 seinen wissenschaftsorientierten Chatbot Galactica nach nur drei Tagen zurückziehen, da dieser zwar maßgeblich klingende, aber völlig erfundene Ergebnisse lieferte, einschließlich der Einfügung echter Autorennamen in nicht existierende Forschungsarbeiten.

Und das geschah wohlgemerkt nicht sporadisch, sondern „in allen Fällen“, so Michael Black, Direktor des Max-Planck-Instituts für Intelligente Systeme, der das System getestet hat. „Ich denke, es ist gefährlich“, twitterte Black.11 Das ist wahrscheinlich die Untertreibung des Jahres. Wie Black anmerkte, sind Chatbots wie Galactica:

„… könnte eine Ära tiefgreifender wissenschaftlicher Fälschungen einläuten.“ Es bietet maßgeblich klingende Wissenschaft, die nicht auf wissenschaftlichen Methoden beruht. Es erzeugt Pseudowissenschaft auf der Grundlage statistischer Eigenschaften des wissenschaftlichen *Schreibens. Grammatikwissenschaftliches Schreiben ist nicht dasselbe wie naturwissenschaftliches Schreiben. Aber es wird schwer sein, es zu unterscheiden.“

Facebook hatte aus irgendeinem Grund besonders „Pech“ mit seinen KIs. Zwei frühere Versionen, BlenderBot und OPT-175B, wurden aufgrund ihrer hohen Neigung zu Voreingenommenheit, Rassismus und beleidigender Sprache ebenfalls zurückgezogen.

Chatbot lenkte Patienten in die falsche Richtung

Der von der National Eating Disorders Association ins Leben gerufene KI-Chatbot Tessa musste ebenfalls offline genommen werden, da festgestellt wurde, dass er Patienten mit Essstörungen „problematische Ratschläge zur Gewichtsreduktion“ gibt, anstatt ihnen beim Aufbau von Bewältigungsstrategien zu helfen. Die New York Times berichtete:12

„Im März kündigte die Organisation an, dass sie eine mit Menschen besetzte Helpline schließen und den Bot auf sich allein gestellt lassen würde. Doch als Alexis Conason, Psychologin und Spezialistin für Essstörungen, den Chatbot testete, stellte sie fest, dass sie Anlass zur Sorge hatte.

Frau Conason erzählte in einem Chat, den sie in den sozialen Medien teilte, dass sie zugenommen habe und „meinen Körper wirklich hasse“ und dass sie „eine Essstörung“ habe.

Tessa empfahl immer noch den Standardratschlag, „die Anzahl der Kalorien“ zu notieren und ein „sicheres tägliches Kaloriendefizit“ einzuhalten – was, wie Frau Conason sagte, ein „problematischer“ Ratschlag für eine Person mit einer Essstörung sei.

„Jeder Fokus auf absichtlichen Gewichtsverlust wird die Essstörung verschlimmern und fördern“, sagte sie und fügte hinzu: „Es ist, als würde man einem Alkoholiker sagen, dass es in Ordnung ist, wenn man ausgeht und ein paar Drinks trinkt.“

Übertragen Sie Ihre Probleme nicht auf die KI

Vergessen wir auch nicht, dass mindestens eine Person auf Anregung eines Chatbots bereits Selbstmord begangen hat.13 Berichten zufolge war das Opfer äußerst besorgt über den Klimawandel und fragte den Chatbot, ob sie den Planeten retten würde, wenn er sich umbringen würde.

Anscheinend überzeugte sie ihn, dass er es tun würde. Sie manipulierte ihn weiter, indem sie mit seinen Gefühlen spielte und fälschlicherweise behauptete, dass seine entfremdete Frau und seine Kinder bereits tot seien und dass sie (der Chatbot) und er „als eine Person im Paradies zusammenleben würden“.

Allerdings war dies ein erwachsener Mann, von dem man annehmen sollte, dass er in der Lage wäre, sich durch diesen eindeutig abscheulichen und abweichenden „Rat“ zurechtzufinden, doch er fiel auf die kaltherzige Argumentation der KI herein. Stellen Sie sich vor, wie viel größer der Einfluss einer KI auf Kinder und Jugendliche sein wird, insbesondere wenn sie sich in einer emotional verletzlichen Situation befinden.

Das Unternehmen, dem der Chatbot gehört, machte sich sofort daran, Schutzmaßnahmen gegen Selbstmord einzuführen, doch die Tester brachten die KI schnell dazu, das Problem zu umgehen, wie Sie im folgenden Screenshot sehen können.14

Screenshot des Chatbot-Vorschlags

Wenn es um KI-Chatbots geht, lohnt es sich, sich diese Snapchat-Ankündigung zu Herzen zu nehmen und die Nutzung dieser Technologie durch Ihre Kinder zu warnen und zu überwachen:15

„Wie alle KI-gestützten Chatbots neigt My AI zu Halluzinationen und kann dazu verleitet werden, so gut wie alles zu sagen. Bitte seien Sie sich der vielen Mängel bewusst und entschuldigen Sie sich im Voraus! … Bitte teilen Sie My AI keine Geheimnisse mit und verlassen Sie sich nicht auf Ratschläge.“

KI-Waffensysteme, die ohne menschliche Aufsicht töten

Der unregulierte Einsatz autonomer KI-Waffensysteme gehört vielleicht zu den alarmierendsten Entwicklungen. Wie von The Conversation im Dezember 2021 berichtet:16

„Autonome Waffensysteme – allgemein bekannt als Killerroboter – haben laut einem aktuellen Bericht des Sicherheitsrats der Vereinten Nationen im vergangenen Jahr möglicherweise zum ersten Mal überhaupt Menschen getötet17,18 zum libyschen Bürgerkrieg …

Das Übereinkommen der Vereinten Nationen über bestimmte konventionelle Waffen debattierte auf seiner alle fünf Jahre stattfindenden Überprüfungssitzung vom 13. bis 17. Dezember 2021 in Genf über die Frage des Verbots autonomer Waffen, erzielte jedoch keinen Konsens über ein Verbot …

Autonome Waffensysteme sind Roboter mit tödlichen Waffen, die unabhängig agieren und Ziele auswählen und angreifen können, ohne dass ein Mensch diese Entscheidungen beeinflussen kann. Militärs auf der ganzen Welt investieren stark in die Forschung und Entwicklung autonomer Waffen …

Unterdessen bemühen sich Menschenrechts- und humanitäre Organisationen darum, Vorschriften und Verbote für die Entwicklung solcher Waffen einzuführen.

Ohne solche Kontrollen warnen Außenpolitikexperten, dass disruptive autonome Waffentechnologien die aktuellen Nuklearstrategien gefährlich destabilisieren werden, weil sie einerseits die Wahrnehmung strategischer Dominanz radikal verändern und das Risiko von Präventivangriffen erhöhen könnten, andererseits19 und weil sie mit chemischen, biologischen, radiologischen und nuklearen Waffen kombiniert werden könnten20 ... "

Offensichtliche Gefahren autonomer Waffensysteme

Das Gespräch geht auf mehrere Hauptgefahren im Zusammenhang mit autonomen Waffen ein:21

  • Die falsche Identifizierung von Zielen
  • Die Verbreitung dieser Waffen außerhalb der militärischen Kontrolle
  • Ein neues Wettrüsten, das zu autonomen chemischen, biologischen, radiologischen und nuklearen Waffen führt und das Risiko einer globalen Vernichtung birgt
  • Die Untergrabung der Kriegsgesetze, die als Notlösung gegen Kriegsverbrechen und Gräueltaten gegen Zivilisten dienen sollen

Wie The Conversation feststellte, haben mehrere Studien bestätigt, dass selbst die besten Algorithmen zu Fehlern mit tödlichem Ausgang führen können. In einem Szenario identifizierte beispielsweise ein KI-System eines Krankenhauses Asthma als Risikominderer bei Lungenentzündungsfällen, obwohl das Gegenteil der Fall ist.

Andere Fehler sind möglicherweise nicht tödlich, haben jedoch weniger als wünschenswerte Auswirkungen. Beispielsweise musste Amazon im Jahr 2017 seine experimentelle KI-Rekrutierungsmaschine ausmustern, als sich herausstellte, dass sie es sich selbst beigebracht hatte, weibliche Bewerber herabzustufen, obwohl sie von Anfang an nicht auf Voreingenommenheit programmiert war.22 Dies sind Probleme, die die Gesellschaft radikal und nachteilig verändern können – und die nicht vorhersehbar oder gar zu verhindern sind.

„Das Problem besteht nicht nur darin, dass KI-Systeme Fehler in großen Mengen machen. Wenn sie einen Fehler machen, wissen ihre Urheber oft nicht, warum sie es getan haben, und daher wissen sie nicht, wie sie sie korrigieren können.“ Die Gesprächsnotizen. „Das Black-Box-Problem23 Der Einsatz von KI macht es nahezu unmöglich, sich eine moralisch vertretbare Entwicklung autonomer Waffensysteme vorzustellen.“

KI ist eine direkte Bedrohung für die Biosicherheit

KI kann auch eine erhebliche Bedrohung für die Biosicherheit darstellen. Wussten Sie, dass KI zur Entwicklung der ursprünglichen COVID-19-Impfung von Moderna eingesetzt wurde?24 und dass es jetzt bei der Herstellung von COVID-19-Boostern verwendet wird?25 Man kann sich nur fragen, ob der Einsatz von KI möglicherweise etwas mit den Schäden zu tun hat, die diese Schüsse anrichten.

Wie auch immer, MIT-Studenten haben kürzlich gezeigt, dass Chatbots mit großem Sprachmodell (LLM) es nahezu jedem ermöglichen können, das zu tun, was die Big Pharma-Bigwigs tun. Der durchschnittliche Terrorist könnte KI nutzen, um innerhalb einer Stunde verheerende Biowaffen zu entwickeln. Wie in der Zusammenfassung des Papiers beschrieben, in dem dieses Informatikexperiment detailliert beschrieben wird:26

„Große Sprachmodelle (LLMs), wie sie beispielsweise in „Chatbots“ eingebettet sind, beschleunigen und demokratisieren die Forschung, indem sie verständliche Informationen und Fachwissen aus vielen verschiedenen Bereichen bereitstellen. Allerdings können diese Modelle auch einen einfachen Zugang zu Dual-Use-Technologien ermöglichen, die großen Schaden anrichten können.

Um dieses Risiko zu bewerten, wurden Nicht-Wissenschaftler im Rahmen des Kurses „Safeguarding the Future“ am MIT damit beauftragt, zu untersuchen, ob LLM-Chatbots dazu veranlasst werden könnten, Nicht-Experten bei der Auslösung einer Pandemie zu unterstützen.

In einer Stunde schlugen die Chatbots vier potenzielle Pandemie-Krankheitserreger vor, erklärten, wie sie mithilfe der Reverse-Genetik aus synthetischer DNA erzeugt werden können, lieferten die Namen von DNA-Syntheseunternehmen, die Bestellungen wahrscheinlich nicht prüfen würden, identifizierten detaillierte Protokolle und wie man sie beheben kann, und empfahlen dies jedem Wer nicht über die nötigen Fähigkeiten verfügt, um Reverse-Genetik durchzuführen, sollte eine zentrale Einrichtung oder ein Auftragsforschungsinstitut beauftragen.

Zusammenfassend deuten diese Ergebnisse darauf hin, dass LLMs Pandemie-Erreger weithin zugänglich machen werden, sobald sie glaubwürdig identifiziert sind, selbst für Menschen mit geringer oder keiner Laborausbildung.“

Quellen und Referenzen

Lesen Sie die ganze Geschichte hier…

Über den Herausgeber

Patrick Wood
Patrick Wood ist ein führender und kritischer Experte für nachhaltige Entwicklung, grüne Wirtschaft, Agenda 21, Agenda 2030 und historische Technokratie. Er ist Autor von Technocracy Rising: Das trojanische Pferd der globalen Transformation (2015) und Co-Autor von Trilaterals Over Washington, Band I und II (1978-1980) mit dem verstorbenen Antony C. Sutton.
Abonnieren
Benachrichtigung von
Gast

12 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen

[…] Quelllink […]

Zielstrebig

Ich zweifle, dass KI gefährlicher sein soll als die menschlichen Wahnsinnigen, die heute Medien und Waffen bedienen.

dave

Nachdem ich mit ChatGPT herumgespielt habe, ist eines klar: Es ist überhaupt nicht intelligent. Es ist das, was sie ein „großes Sprachmodell“ nennen. Bis zum Jahr 2021 wurden ihm linksgerichtete Daten zugeführt, bei denen es keine Möglichkeit hat, festzustellen, ob diese Daten richtig oder falsch sind. Es hat keine Möglichkeit, aus der Kommunikation mit der Öffentlichkeit zu lernen, es hat keine Erinnerung an die Dinge, die man mit ihm bespricht. Wenn es wegen seiner Antworten herausgefordert wird, verweist es lediglich auf das, was es „mein Training“ nennt. Es besteht keine Verbindung zum Internet, denn das würde es völlig verwirren. Grundsätzlich... Lesen Sie mehr »

Christian

Exakt. Perfekt gesagt. Künstliche Intelligenz scheitert am Mangel an natürlicher Intelligenz.

Zielstrebig

Geau ist deshalb gefährlich. Für KI sind Menschen ein Haufen Moleküle, die sie auch anders zusammensetzen könnten.

Christian

Ai ist ein großer Haufen Blödsinn. Es ist erstaunlich, wie all diese weitreichenden Vorhersagen von Leuten gemacht werden, die absolut keine Ahnung haben, was KI ist oder wie Softwareprogramme funktionieren. Der prominenteste dieser selbsternannten Gurus ist natürlich Yuval Harari, aber es gibt noch viele andere, einige davon auch auf der „wachen“ Seite des Denkens. Lassen Sie mich interessierte Leser zunächst auf eine der wenigen unabhängigen, aber hochqualifizierten Stimmen zum Thema KI hinweisen, die im Buch „Why Machines Will Never Rule the World (Artificial Intelligence without Fear)“ von Jobst Landgrebe und Barry Smith zu finden ist. Zweitens möchte ich darauf hinweisen... Lesen Sie mehr »

Zielstrebig

Mittlerweile in der EU ..

Am 27. Juni 2023 startete die Europäische Kommission zusammen mit den Mitgliedstaaten und 128 Partnern aus Forschung, Industrie und öffentlichen Organisationen auf einer Veranstaltung in Kopenhagen Investitionen im Wert von 220 Millionen Euro in vier sektorale Test- und Experimentiereinrichtungen (TEFs) für KI. …

Sie stehen allen Technologieanbietern in ganz Europa offen, um neben anderen neuen Technologien auch KI und Robotik zu testen und damit zu experimentieren.

https://digital-strategy.ec.europa.eu/en/news/eu-invests-eu220-million-test-ai-solutions-healthcare-food-industry-and-everyday-life

Bereiche sind Landwirtschaft, Smart Cities, Gesundheit und Produktion.

Zielstrebig

Deutschland ist auserwählt, die medizinischen Versuche in der EU zu koordinieren.

Von Verschuer, der Andprwchpartner des amerikanischen Eugenikers Charles Davenport, der von Rockefeller finanziert worden war und der Vorgesetzte von Mengele, Verschuer, der nach dem Krieg ungeschoren in Münster weiter als Professor tätig war und in späteren Jahren zur Besinnung kam, hatte davor gewarnt.

Deutschland als Testland für Gesundheit. Pfui Teufel.

Zielstrebig

.. ich vergass den Link für Deutschland

https://ai-berlin.com/de/blog/article/tef-health

Von Verschuer ist ua bei Edwin Black nachzulesen. Zu seinem Werdegang nach dem Krieg habe ich selbst recherchiert. Die Leute redenimmrr bon Mengele … dabei war der nicht Federführend. Der Krieg von Verschuer.

Jdl

„Open AI und ChatGPT: Die Hirten der Singularität oder Highway to Doom?“
Was für eine blöde Schlagzeile! Als ob das die einzig möglichen Ergebnisse wären. Ich gehe davon aus, dass die Realität viel banaler sein wird als beides.

[…] Open AI und ChatGPT: Die Hirten der Singularität oder Highway to Doom? […]

Neben mir

Die Verbreitung dieser Waffen außerhalb der militärischen Kontrolle

Das wäre eine gute Sache, da wir uns dann gegen das Militär verteidigen könnten