Offizielle Roboter-Ethik veröffentlicht: Nicht schaden, Befehle befolgen

Bitte teilen Sie diese Geschichte!

Ein Professor für Robotik in England sagt: „Das derzeitige Problem mit KI-Systemen, insbesondere diesen Deep-Learning-Systemen, ist das folgende Es ist unmöglich zu wissen, warum sie die Entscheidungen treffen, die sie treffen.„Wenn dies zutrifft, sind Roboter bereits außer Kontrolle geraten.  TN Editor

Isaac Asimov gab uns die Grundregeln für ein gutes Roboterverhalten: Schaden Sie nicht den Menschen, gehorchen Sie Befehlen und schützen Sie sich. Jetzt hat das British Standards Institute eine offiziellere Version mit dem Ziel, Designern bei der Entwicklung ethisch einwandfreier Roboter zu helfen.

Das Dokument BS8611 Roboter und Roboter-Geräte, ist in der trockenen Sprache eines Gesundheits- und Sicherheitshandbuchs geschrieben, aber die unerwünschten Szenarien, die es hervorhebt, könnten direkt aus der Fiktion entnommen werden. Robotertäuschung, Robotersucht und die Möglichkeit, dass selbstlernende Systeme ihren Aufgabenbereich überschreiten, werden als Gefahren eingestuft, die die Hersteller berücksichtigen sollten.

Begrüßung der Richtlinien im Soziale Robotik und KI Alan Winfield, Professor für Robotik an der University of the West of England, sagte auf einer Konferenz in Oxford, dass dies "der erste Schritt zur Einbettung ethischer Werte in Robotik und KI" sei.

„Soweit ich weiß, ist dies der erste veröffentlichte Standard für die ethische Gestaltung von Robotern“, sagte Winfield nach der Veranstaltung. "Es ist ein bisschen ausgefeilter als die Gesetze von Asimov - es beschreibt im Grunde, wie eine ethische Risikobewertung eines Roboters durchgeführt wird."

Das BSI-Dokument beginnt mit einigen allgemeinen ethischen Grundsätzen: „Roboter sollten nicht ausschließlich oder in erster Linie dazu bestimmt sein, Menschen zu töten oder zu schädigen. Menschen, nicht Roboter, sind die verantwortlichen Agenten; Es sollte möglich sein, herauszufinden, wer für einen Roboter und sein Verhalten verantwortlich ist. “

Es wird eine Reihe strittigerer Fragen beleuchtet, z. B. ob eine emotionale Bindung zu einem Roboter wünschenswert ist, insbesondere wenn der Roboter für die Interaktion mit Kindern oder älteren Menschen ausgelegt ist.

Noel Sharkey, emeritierter Professor für Robotik und KI an der Universität von Sheffield, sagte, dies sei ein Beispiel dafür, wo Roboter uns unbeabsichtigt täuschen könnten. "Vor kurzem gab es eine Studie, in der kleine Roboter in einen Kindergarten eingebettet waren", sagte er. „Die Kinder haben es geliebt und sich tatsächlich mit den Robotern verbunden. Aber als sie danach gefragt wurden, dachten die Kinder eindeutig, die Roboter seien kognitiver als ihr Haustier. “

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast

1 Kommentar
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
Jerry Day

Roboter müssen wissen, was ein Mensch als „Schaden“ ansieht, um dies zu tun. Das kann alles sein, von der Beseitigung unserer Arbeitsplätze bis hin zu mikroaggressiven Kommentaren. Die Polizei hat bereits Roboter eingesetzt, um einen „Verdächtigen“ in Stücke zu sprengen. Wie alles andere können auch die Regierung und ihre Roboter die Regeln ignorieren, während wir und unsere Roboter ihnen gehorchen müssen.