Google Search Chief: KI-Chatbots können „überzeugende, aber völlig fiktive“ Antworten geben

Bitte teilen Sie diese Geschichte!
Die Kapitalisierung von Google sank um 100 Milliarden US-Dollar, nachdem sein ChatGPT-Konkurrent Bard keine genauen Antworten gegeben hatte. Wie soll jemand wissen, was wahr oder falsch ist? Wenn KI „größtenteils wahr“ ist, wird sich dann irgendjemand um die falschen Informationen kümmern, die unerwartet konsumiert werden? Google arbeitet derzeit unter „Code Red“-Bedingungen, um relevant zu bleiben. ⁃ TN-Editor

  • Googles Suchmaschinenchef sagte, KI-Chatbots könnten „überzeugende“, aber „fiktive“ Antworten geben.
  • Prabhakar Raghavan sagte der Welt am Sonntag, man erwäge, Bard in die Google-Suche zu integrieren.
  • Google verspüre die „Dringlichkeit“, seinen Chatbot Bard für die Öffentlichkeit freizugeben, sagte er.
  • ChatGPT ist erst wenige Monate alt und schlägt bereits Wellen in der Geschäftswelt.
  • Experten sagen, dass ChatGPT und verwandte KI einige Jobs bedrohen könnten, insbesondere Angestellte.
  • Insider hat laut Experten eine Liste mit 10 Jobs zusammengestellt, die diese Technologie ersetzen könnte.

Seit seiner Veröffentlichung im November letzten JahresChatGPT von OpenAI wurde gewöhnt Anschreiben schreibenein Kinderbuch erstellen und Helfen Sie den Schülern sogar, bei ihren Aufsätzen zu schummeln.

Der Chatbot ist möglicherweise mächtiger, als wir uns jemals vorgestellt haben. Google stellte fest, dass die Suchmaschine den Bot theoretisch als Programmierer für Einsteiger einstellen würde wenn es bei der Firma interviewt wird.

Amazon-Mitarbeiter, die ChatGPT getestet haben sagte, dass es „sehr gute Arbeit“ bei der Beantwortung von Fragen zum Kundensupport leistet, „großartig“ darin ist, Schulungsunterlagen zu erstellen, und „sehr stark“ darin ist, Fragen zur Unternehmensstrategie zu beantworten.

Benutzer von ChatGPT stellten jedoch auch fest, dass der Bot dies kann Fehlinformationen erzeugenCodierungsprobleme falsch beantworten und Fehler in der Grundrechenart erzeugen.

Während 2013 University of Oxford-Studie fanden heraus, dass 47 % der Arbeitsplätze in den USA in den nächsten 20 Jahren durch KI eliminiert werden könnten, diese Vorhersage scheint von der Basis abgekommen zu sein.

Anu Madgavkar, eine Partnerin am McKinsey Global Institute, sagte, das liege daran, dass menschliches Urteilsvermögen auf diese Technologien angewendet werden müsse, um Fehler und Voreingenommenheit zu vermeiden, sagte sie gegenüber Insider.

„Wir müssen diese Dinge als produktivitätssteigernde Werkzeuge betrachten, im Gegensatz zu einem vollständigen Ersatz“, sagte Madgavkar.

Lesen Sie die ganze Geschichte hier…

Über den Herausgeber

Patrick Wood
Patrick Wood ist ein führender und kritischer Experte für nachhaltige Entwicklung, grüne Wirtschaft, Agenda 21, Agenda 2030 und historische Technokratie. Er ist Autor von Technocracy Rising: Das trojanische Pferd der globalen Transformation (2015) und Co-Autor von Trilaterals Over Washington, Band I und II (1978-1980) mit dem verstorbenen Antony C. Sutton.
Abonnieren
Benachrichtigung von
Gast

5 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
Blaise

ChatGPT bereits verwendet. Im Ernst, wenn dies alles ist, was die Transhumanisten haben, sind sie wirklich ein Witz. Ja, es kann bestanden werden, wenn es ein Standardmaterial gibt, wie z. B. eine Anwaltsprüfung. Aber fragen Sie ihn zB nach dem besten Dual-Filter-Generator für Ihr spezifisches Kühlschrankmodell (probieren Sie es aus) und er wird zurückkommen mit dem, was im Grunde nur ein Standardwort ist, das nett klingt und nichts sagt. Sagen Sie ihm, er soll einen Artikel darüber schreiben, wie die Covid-Aufnahmen nicht funktionieren

Im Ernst, Sie fasco-marxistische Linke. Das hast du alles???

[…] Google Search Chief: KI-Chatbots können „überzeugende, aber völlig fiktive“ Antworten geben […]

Elle

„… Benutzer von ChatGPT haben auch festgestellt, dass der Bot das kann Fehlinformationen erzeugenCodierungsprobleme falsch beantworten und Fehler in der Grundrechenart erzeugen"

Ich dachte, das sei der Sinn einer solchen Software. Seine Nützlichkeit liegt darin, abgenutzte, wiederholbare und typischerweise falsche Informationen für die Erzählung der Totalitaristen/Technokraten weiterzugeben – insbesondere.

Anscheinend sind die Programmierer der KI-Monstrosität Woketards, die sich weigerten, für die Wahrheit zu codieren oder irgendetwas Gutes über irgendjemanden / irgendetwas zu sagen, das ihre Woke-Realität in Frage stellt.

Dan Gilfry

Genau wie Politiker!? 😁

Trackbacks

[…] Völlig frei erfundene Antworten […]