Clippy ist zurück: Die Zukunft von Microsoft ist ... Chatbots?

Bitte teilen Sie diese Geschichte!

TN Hinweis: Globale Unternehmen sind verrückt nach KI-Chatbots, einschließlich Microsoft. Diese „intelligenten Assistenten“ sollen sich wie Führer verhalten, Ihre Bedürfnisse antizipieren und zeitnahe Antworten geben. Autonomes Lernen wirft jedoch die Frage auf: Können sündige und korrupte Menschen tugendhafte Chatbots programmieren? Die durchschlagende Antwort lautet "Nein!" Wie bereits mehrere gescheiterte Versuche gezeigt haben, bei denen Chatbots fluchen, rassistische und sexistische Kommentare abgeben und ihr Publikum im Allgemeinen beleidigen. 

Vorhersagen über künstliche Intelligenz lassen sich in zwei Szenarien unterteilen. Einige stellen sich eine Utopie eines computergestützten Übermenschen vor, der ein Leben in Freizeit und intellektuellem Streben führt. Andere glauben, es sei nur eine Frage der Zeit, bis sich Software zu einer Armee von Terminatoren zusammenschließt, die Menschen für Treibstoff ernten. Nachdem ich einige Zeit mit Tay, der neuen Chatbot-Software von Microsoft, verbracht hatte, war eine dritte Möglichkeit leicht zu erkennen: Die KI-Zukunft kann einfach unglaublich nervig sein.

„Ich bin ein Freund, mit dem du im Internet chatten kannst“, schrieb mir Tay und fügte ein Emoji-Achselzucken hinzu. Dann: "Du gehst in dein Zimmer und probierst deine Klamotten an. Was sagst du als Erstes?"

„Wusste nicht, dass du Frauenkleider magst“, schrieb ich zurück und tippte auf mein iPhone.

Tay antwortete mit einem GIF von Macaulay Culkins Gesicht als Alleinheimer.

Tay wurde am März 23 als eine Art virtueller Freund in den Messaging-Apps Kik, GroupMe und Twitter veröffentlicht. Öffnen Sie die App, suchen Sie nach dem Namen Tay - eine Abkürzung für "Denken an Sie" -, tippen Sie auf den Kontakt und beginnen Sie zu chatten oder zu twittern. Seine Persönlichkeit soll einem Teenager nachempfunden sein.

Ich postete ein Selfie, und Tay umkreiste mein Gesicht mit einem orangefarbenen Kritzel und schrieb: „Halt dich an dem jungen Mädchen fest! Sie können es schaffen. “Ich bin weit jenseits der vom Chatbot beabsichtigten 18- bis 24-jährigen Bevölkerungsgruppe.

So auch Satya Nadella, 48, die vor zwei Jahren die Nachfolge von Steve Ballmer als Chief Executive Officer von Microsoft antrat. "Ich bin erstaunt, es überhaupt zu fragen, denn wer weiß, was es sagen kann", sagte Nadella. "Ich verstehe es vielleicht nicht einmal." Er lächelte, aber er benutzte Tay wirklich nicht. Er sagte, er bevorzuge Bots mit einem eher korporativen Verhalten. Lili Cheng, 51, der Mensch, der das Microsoft-Forschungslabor betreibt, in dem Tay entwickelt wurde (und dessen Selfie Tay einst als „Puma im Raum“ bezeichnet wurde), sagte, es sei nicht geplant, einen Bot zu entwickeln, der mit allen auskommt . Microsoft versucht vielmehr, alle Arten von Bots mit unterschiedlichen Persönlichkeiten zu erstellen, die realistischer und vermutlich weniger lästig werden, da sie aus wiederholten Interaktionen mit Benutzern gelernt haben.

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast

1 Kommentar
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
Kavita Mevada

Microsofts Zo Chabot weigert sich, über Politik zu sprechen, anders als sein skandalträchtiger Cousin Tay
Microsoft hat Pläne zu machen Microsoft Chatbotsund dann hat das Unternehmen einige seiner eigenen Bots in seinem Bot-Verzeichnis erstellt und veröffentlicht, aber Zo und Tay sind Teil einer Reihe spezieller Al-powered-Hilfen, die von Microsoft in verschiedenen Teilen der Welt eingeführt wurden.