Wissenschaftler protestieren gegen neues tödliches KI-Waffenlabor an der südkoreanischen Universität

Bitte teilen Sie diese Geschichte!
image_pdfimage_print
Südkorea ist eine Technokratie von oben nach unten, und daher gibt es keine Hemmung, Universitätsressourcen für die Entwicklung von Technologien zu verwenden, die für die Kriegsführung verwendet werden können. In diesem Fall handelt es sich um autonome Killerroboter, die mit künstlicher Intelligenz ausgestattet sind. ⁃ TN Editor

Die KAIST-Universität hat angeblich im Februar ein neues KI-Waffenlabor in Betrieb genommen, in dem Dutzende von Forschern davon ausgehen, dass die Produkte „das Potenzial haben, Terrorwaffen zu sein“.

Oby Walsh, Professor an der Universität von New South Wales in Sydney, organisierte den Boykott mit anderen 49-Forschern.

In einem offenen Brief sagte er: „Wenn autonome Waffen entwickelt werden, können Kriege schneller und in einem noch nie dagewesenen Ausmaß geführt werden.

"Sie werden das Potenzial haben, Terrorwaffen zu sein."

KAIST sagte, es habe "keine Absicht, sich an der Entwicklung tödlicher autonomer Waffensysteme und Killerroboter zu beteiligen".

Der Präsident der Universität, Sung-Chul Shin, sagte, die Universität sei sich der ethischen Bedenken in Bezug auf KI "bewusst".

Gestern kündigten die Forscher einen Boykott der Universität an und sagten, sie würden es unterlassen, KAIST zu besuchen, Besucher von der Universität aufzunehmen oder mit ihren Forschungsprogrammen zusammenzuarbeiten, bis sie sich dazu verpflichten, die Entwicklung der Waffen einzustellen.

Die Wissenschaftler fügten hinzu: „Sie haben das Potenzial, Terrorwaffen zu sein.

„Despoten und Terroristen könnten sie gegen unschuldige Bevölkerungsgruppen einsetzen und alle ethischen Beschränkungen aufheben.

"Diese Büchse der Pandora ist schwer zu schließen, wenn sie geöffnet wird."

Professor Walsh räumte ein, dass Robotik und künstliche Intelligenz im Militär viele gute Anwendungen haben.

Die Wissenschaftler verwiesen auf wirksame Verbote früherer Waffentechnologien und forderten KAIST auf, jegliche Arbeit an tödlichen autonomen Waffen zu verbieten und auf KI-Anwendungen zu verzichten, die Menschenleben schädigen könnten.

Aber er sagte, sie sollten nicht entscheiden können, "wer lebt oder stirbt".

Der Brief, der ebenfalls von Top-Experten für Deep Learning und Robotics unterzeichnet wurde, wurde vor dem Treffen der 123-UN-Mitgliedsländer am kommenden Montag in Genf zu den Herausforderungen veröffentlicht, die sich aus tödlichen autonomen Waffen ergeben, die als „Killerroboter“ bezeichnet werden.

Lesen Sie die ganze Geschichte hier…

Treten Sie unserer Mailingliste bei!


Abonnieren
Benachrichtigung von
Gast
0 Kommentare
Inline-Feedbacks
Alle Kommentare anzeigen