Freidenkende KI-Roboter könnten die Menschheit zerstören oder sogar völlig verändern, was es bedeutet, Mensch zu sein, wenn wir sie für sich selbst denken lassen, hat ein Wissenschaftler gewarnt.
Dr. Amnon Eden sagte, es müsse mehr getan werden, um die Risiken einer Fortsetzung der KI-Welt zu untersuchen.
Er warnte uns davor, dass wir uns dem Punkt nähern würden, an dem es in Bezug auf die KI keine Rückkehr mehr gibt, ohne die Konsequenzen richtig zu verstehen.
Dr. Eden sagte: „Im neuen Jahr muss diese schlecht informierte Kontroverse durch eine besser informierte Analyse der möglichen Auswirkungen der KI und ihrer Anwendungen ersetzt werden.
„2016 muss die Risikoanalyse von Experten eine weitaus größere Rolle im Denken von Politikern und Entscheidungsträgern, Regierungen und Unternehmen spielen.“
Dr. Eden ist Leiter des Sapience-Projekts, einer Denkfabrik, die gegründet wurde, um die potenziellen störenden Auswirkungen der künstlichen Intelligenz-KI zu untersuchen.
Science Fiction hat regelmäßig untersucht, ob Roboter die Menschheit zerstören könnten, am bekanntesten die Terminator-Filme mit Arnold Schwarzenegger.
Dr. Edens Haltung kommt, nachdem der Oxford-Professor Nick Bostrom sagte, dass die KI der Superintelligenz „zu einem Punkt vordringen könnte, an dem ihre Ziele nicht mit denen des Menschen vereinbar sind“.
Er behauptete, dass im Gegensatz zum Klimawandel und zur Gentechnik, wo Regierungen auf der ganzen Welt Mechanismen einsetzen, um die Risiken dessen zu minimieren, „nichts unternommen wird, um den Fortschritt der KI zu kontrollieren“.
Herr Bostrom sagte: "Es gibt ein politisches Vakuum, das gefüllt werden muss, wenn dieser unvermeidliche Fortschritt mit Bedacht eingesetzt werden soll."
Über die potenziellen Risiken sagte er: „Ein Computer ist im Grunde genommen eine Box, und was darin steckt, ist alles, was er verwenden kann. Wenn wir also nicht sagen, dass Menschen in kalten Ländern sterben können, wenn sie keine Heizung haben, und das ist schlecht, wie wird es wissen? Wie können wir definieren, was "gut" oder "freundlich" eigentlich ist?
„Das Ergebnis der Singularität ist möglicherweise nicht, dass KI böswillig ist, aber es kann durchaus sein, dass sie nicht in der Lage ist, über den Tellerrand hinaus zu denken und keine Vorstellung von menschlicher Moral hat.
„Das andere KI-Problem ist eines, das Hollywood seit Jahren als Thema verwendet, und das ist der Aufstieg des Typs 'Terminator' und der Kampf ums Überleben gegen eine Armee feindlicher, sich verändernder Roboter, die von einem Selbstbewussten geführt werden Ich habe Skynet angerufen. “