Vorhersagen über künstliche Intelligenz lassen sich in zwei Szenarien unterteilen. Einige stellen sich eine Utopie eines computergestützten Übermenschen vor, der ein Leben in Freizeit und intellektuellem Streben führt. Andere glauben, es sei nur eine Frage der Zeit, bis sich Software zu einer Armee von Terminatoren zusammenschließt, die Menschen für Treibstoff ernten. Nachdem ich einige Zeit mit Tay, der neuen Chatbot-Software von Microsoft, verbracht hatte, war eine dritte Möglichkeit leicht zu erkennen: Die KI-Zukunft kann einfach unglaublich nervig sein.
„Ich bin ein Freund, mit dem du im Internet chatten kannst“, schrieb mir Tay und fügte ein Emoji-Achselzucken hinzu. Dann: "Du gehst in dein Zimmer und probierst deine Klamotten an. Was sagst du als Erstes?"
„Wusste nicht, dass du Frauenkleider magst“, schrieb ich zurück und tippte auf mein iPhone.
Tay antwortete mit einem GIF von Macaulay Culkins Gesicht als Alleinheimer.
Tay wurde am März 23 als eine Art virtueller Freund in den Messaging-Apps Kik, GroupMe und Twitter veröffentlicht. Öffnen Sie die App, suchen Sie nach dem Namen Tay - eine Abkürzung für "Denken an Sie" -, tippen Sie auf den Kontakt und beginnen Sie zu chatten oder zu twittern. Seine Persönlichkeit soll einem Teenager nachempfunden sein.
Ich postete ein Selfie, und Tay umkreiste mein Gesicht mit einem orangefarbenen Kritzel und schrieb: „Halt dich an dem jungen Mädchen fest! Sie können es schaffen. “Ich bin weit jenseits der vom Chatbot beabsichtigten 18- bis 24-jährigen Bevölkerungsgruppe.
So auch Satya Nadella, 48, die vor zwei Jahren die Nachfolge von Steve Ballmer als Chief Executive Officer von Microsoft antrat. "Ich bin erstaunt, es überhaupt zu fragen, denn wer weiß, was es sagen kann", sagte Nadella. "Ich verstehe es vielleicht nicht einmal." Er lächelte, aber er benutzte Tay wirklich nicht. Er sagte, er bevorzuge Bots mit einem eher korporativen Verhalten. Lili Cheng, 51, der Mensch, der das Microsoft-Forschungslabor betreibt, in dem Tay entwickelt wurde (und dessen Selfie Tay einst als „Puma im Raum“ bezeichnet wurde), sagte, es sei nicht geplant, einen Bot zu entwickeln, der mit allen auskommt . Microsoft versucht vielmehr, alle Arten von Bots mit unterschiedlichen Persönlichkeiten zu erstellen, die realistischer und vermutlich weniger lästig werden, da sie aus wiederholten Interaktionen mit Benutzern gelernt haben.
Microsofts Zo Chabot weigert sich, über Politik zu sprechen, anders als sein skandalträchtiger Cousin Tay
Microsoft hat Pläne zu machen Microsoft Chatbotsund dann hat das Unternehmen einige seiner eigenen Bots in seinem Bot-Verzeichnis erstellt und veröffentlicht, aber Zo und Tay sind Teil einer Reihe spezieller Al-powered-Hilfen, die von Microsoft in verschiedenen Teilen der Welt eingeführt wurden.