Wen sollten autonome Fahrzeuge bei einer Kollision töten?

Bild mit freundlicher Genehmigung von Wikipedia
Bitte teilen Sie diese Geschichte!
image_pdfimage_print
Hier ist eine interessante Stellungnahme zu einem sehr ernsten moralischen Dilemma, mit dem sich autonome Fahrzeuge konfrontiert sehen: Wenn ihre Insassen bereit sind, ihr Leben dem Fahren mit der KI anzuvertrauen, sollten sie die Ersten sein, die ihr Leben riskieren, wenn sich eine Wahl ergibt. Unschuldige Zuschauer sollten niemals gefährdet werden. ⁃ TN Editor

Autonome Fahrzeuge scheinen in vielen der heutigen Technologielinien der letzte Schrei zu sein. Tech-Unternehmen wie Tesla und Google werden einfach nicht aufgeben, oder?

Für das, was es wert ist, ist die Wahrscheinlichkeit, dass sogenannte "selbstfahrende" Autos abheben, gering. Sicher, Tech-Mogule sagen, es ist die nächste große Sache, genau wie 5G, das Internet der Dinge, „intelligente Zähler“ und die Vielzahl anderer Tech-Katastrophen, die im ganzen Land auftauchen und größtenteils mit zweckentfremdeten öffentlichen Mitteln finanziert werden. Aber warum solltest du ihnen glauben? Angesichts der Tatsache, dass autonome Fahrzeuge höchstwahrscheinlich eine V2V- oder Fahrzeug-zu-Fahrzeug-Kommunikation mit hochfrequenten Millimeterwellen erfordern würden, kann man mit Sicherheit sagen, dass zu viele davon jemals auf die Straße kommen werden etwas aber sicher.

Das einzig wahre, was autonome Fahrzeuge für sie tun, ist der „Sicherheitsschirm“, der unsere Dummheit eher erweitert, als dass er für sich genommen ein gültiger Punkt ist. Wenn die Leute auf die Straße achten würden, würden die Verkehrstoten unglaublich reduziert. Wenn Alkohol und Mobiltelefone von Fahrzeugen ferngehalten würden, wären die Autobahnen viel sicherer!

Autonome Fahrzeuge werfen jedoch nicht nur gesundheitliche Probleme auf. Es gibt ernsthafte ethische Implikationen, mit denen sich die Menschen auseinandersetzen müssen, wenn sie ernsthaft in Erwägung ziehen, diese Fahrzeuge der Zerstörung auf die Straße zu setzen.

Das Media Lab des MIT hat kürzlich einige der moralischen Dilemmata der künstlichen Intelligenz untersucht, die im Bereich der autonomen Fahrzeuge eine große Rolle spielen würden. Schließlich muss ein autonomes Fahrzeug in der Lage sein, die Sicherheit seiner Insassen und seiner Umgebung zu gewährleisten. Viele ethische Fragen sind nicht eindeutig. Zumindest scheinbar ist dies auch eine der Fragen, mit denen sich MIT-Forscher befasst haben: Wer sollte bei einer Kollision sterben, an der ein autonomes Fahrzeug beteiligt ist? Wir Menschen haben einen moralischen Kompass, der uns in solchen Dilemmata führt. Künstliche Intelligenz, egal wie „intelligent“ sie auch sein mag, ist letztendlich auf 1s und 0s beschränkt und hat keinen solchen moralischen Kompass. MIT-Forscher untersuchten, ob Menschen der Meinung sind, dass ein autonomes Fahrzeug eine junge oder ältere Person treffen sollte, um die Insassen zu retten.

Gemäß ZDNet„Wir waren uns weltweit einig, dass es Vorrang haben sollte, das Leben von Menschen vor Tieren zu schützen. Viele Menschen sollten gerettet werden, nicht wenige, und die Jungen sollten über die Älteren bewahrt werden. “ Hat sonst noch jemand ein Problem?

Patricia Burke fasst es in ihrem Artikel zu diesem Thema perfekt zusammen:

Wenn die Technik hinter selbstfahrenden Autos dazu führen kann, dass die Intelligenz eines Karriereautos entscheidet, ob die ältere Dame auf dem Zebrastreifen oder das Baby in der Kutsche auf dem Bürgersteig getroffen wird, müssen wir zum Zeichenbrett zurückkehren. - Das "Künstliche" der Künstlichen Intelligenz und die "Moral Machine" des MIT

Ich kann verstehen, warum die meisten Menschen zustimmen würden, dass es von größter Bedeutung ist, das Leben der Menschen vor anderen Tieren zu schützen. Es ist eine moralische Entscheidung, der die meisten von uns zustimmen würden. Aber was ist mit Pauschalaussagen wie „die Jungen sollten über die Älteren bewahrt werden“?

Die Antworten auf diese Fragen waren in der Regel stark kulturell geprägt. Wenn Jugend als Kultur mehr geschätzt wird als als Alter, warum nicht? Das Problem ist, wenn Entscheidungen wie diese programmiert werden, wird keine Unterscheidung getroffen. Sollte ein autonomes Fahrzeug eine ältere Person treffen, auch wenn es der Präsident der Vereinigten Staaten ist? Auch wenn es Paul McCartney ist? Auch wenn es deine Oma ist? Werden autonome Fahrzeughersteller bestimmte "Ausnahmen" von der "No-Kill" -Liste programmieren und sagen: "Alle anderen sind Fair Game"? Dies sind ernsthafte ethische Fragen, mit denen wir uns auseinandersetzen müssen, wenn es welche geben soll jeglicher Gespräch über die Zukunft autonomer Fahrzeuge.

Hier ist eine andere Frage: Sollte ein autonomes Fahrzeug, wenn es zur Wahl gezwungen wird, beschließen, Fußgänger in der Nähe oder seine eigenen Insassen zu töten?

Die amerikanische Kultur ist sehr individuell. Als Teil unserer Kultur sind wir selbstbewusster und motivierter als viele andere Kulturen, insbesondere in Europa und im Osten. Es wäre also sinnvoll, dass das autonome Fahrzeug handelt, um seinen Besitzer zu retten; es wäre nur natürlich, oder?

Auch hier haben wir ein ernstes moralisches Dilemma. Wer sind autonome Fahrzeugnutzer, die sagen, dass ihr Leben so wichtig ist, dass sie automatisch verschont bleiben und dass jeder, der in der Nähe ist, wegen der Entscheidung, ein selbstfahrendes Auto zu benutzen, sterben muss?

Es ist egoistisch, was es ist.

Auf moralischer Ebene gibt es keine richtige Antwort auf diese Frage. Aber aus der Perspektive der Gerechtigkeit und des „Richtigen“ gibt es zumindest auf diese Frage eine klare Antwort.

Es gibt Menschen, die selbstfahrende Autos wollen, und es gibt Menschen, die dies nicht tun. Verallgemeinerungen sind etwas, das wir gerne vermeiden, aber als allgemeine Tendenz fühlen sich jüngere Menschen mit autonomen Fahrzeugen wohler - schließlich lassen sie Technologie bereits ihr Leben laufen (und ruinieren sie vielleicht), nicht wahr?

Mit anderen Worten, Sie werden mit größerer Wahrscheinlichkeit einen Studenten in einem autonomen Fahrzeug vorfinden als einen Senioren. Sinnvoll, oder? Die jungen Leute von heute meiden Verantwortung wie die Pest und haben alle möglichen sinnlosen, zwecklosen Technologien angenommen und sind dann süchtig danach geworden. Autonome Fahrzeuge sind eine weitere Modeerscheinung, die sich praktisch nicht unterscheidet. (Okay, jetzt genug junge Leute verprügeln.)

Aus der Sicht der Gerechtigkeit ist es wenig sinnvoll, autonome Fahrzeuge so zu programmieren, dass sie auf umstehende Personen oder Fußgänger abzielen. Immerhin sind sie völlig unschuldig, von der ganzen Situation losgelöst. Warum sollten sie bestraft werden? Wäre es für ein selbstfahrendes Auto nicht sinnvoller, wenn es keine Alternative hat, stattdessen seine Insassen zu töten?

Es klingt extrem, sogar fremdartig. Natürlich. Aber legen Sie Emotionen beiseite und denken Sie wirklich analytisch darüber nach: Wenn es Menschen gibt, die bereit sind, ihr Leben einem autonomen Fahrzeug anzuvertrauen, das moralische Entscheidungen treffen soll, kann es das nicht vom Nutzer definierten bereit sein, den Preis zu zahlen, wenn sie tatsächlich ihr Vertrauen verloren haben.

Warum sollten unschuldige Zuschauer oder Fußgänger, die sich vielleicht nie für diese Technologie ausgesprochen oder sie angenommen haben, Kollateralschäden verursachen, wenn vom Nutzer definierten Warnen Sie schon immer andere davor?

Um klar zu sein, wir befürworten das niemand sollte sterben; das wäre unmenschlich. Aber die schlimme Realität ist, dass Menschen sterben und Menschen bei Verkehrsunfällen sterben. Und wenn eine Wahl getroffen werden muss, ist es nur fair, dass die Leute, die an die Technologie glaubten und sie unterstützten und danach fragten und sie kauften, die Konsequenzen tragen sollten if wenn es nötig wird. Dort habe ich es gesagt - Wenn Sie bereit sind, einem autonomen Fahrzeug zu vertrauen, das für die Verwendung eines solchen Fahrzeugs ausreicht, sollten Sie bereit sein, das erste Opfer zu sein, wenn eine möglicherweise tödliche Entscheidung getroffen werden muss.

Logischerweise glauben wir, dass dies eine vollkommen faire Richtlinie ist. Beachten Sie also die autonomen Fahrzeughersteller: Wenn Sie Ihren Produkten so vertrauen, programmieren Sie sie so, dass sie ihre Besitzer töten, nicht unschuldige Zuschauer! Das ist richtig, töte deine Kunden! (Das wird natürlich nie passieren, denn die Leute, die autonome Fahrzeuge bauen, sind so egoistisch wie die Leute, die sie benutzen!)

Und während wir nicht sagen, dass junge Menschen weniger wert sind als alte, junge Menschen warten Es ist wahrscheinlicher, dass autonome Fahrzeuge unterstützt werden. Wenn also eine Störung auftritt, warum nicht einen jungen Menschen ansprechen? Die alten Leute fragen nicht nach dieser Technologie; warum sollte vom Nutzer definierten bestraft werden, wenn es fehler hat?

Gefällt dir diese Argumentation nicht? Wir auch nicht - es ist nur ein weiterer Grund, warum autonome Fahrzeuge wahrscheinlich niemals Realität werden (und auch nicht sollten).

Autofahren ist im Vergleich zu anderen Dingen, die wir täglich tun, eine unglaublich gefährliche Aktivität. Eine Person würde nichts daran denken, über die Bordsteinkante zu springen, um zu vermeiden, dass sie ein Kind trifft, das unerwartet auf die Straße schießt. ein selbstfahrendes Auto würde. Wenn Sie der Meinung sind, dass wir diese anspruchsvolle Verantwortung sicher, menschlich und ethisch einem eingebetteten Computer anvertrauen können (der unweigerlich drahtlos verbunden und anfällig für Hacking ist), dann überlegen Sie es sich noch einmal. Computer sind erstaunliche und leistungsstarke Werkzeuge, aber es gibt nur einige Dinge im Leben, die Sie selbst tun müssen.

Lesen Sie die ganze Geschichte hier…

Treten Sie unserer Mailingliste bei!


Abonnieren
Benachrichtigung von
Gast
1 Wie
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
Gary Remington

TE Lawrence (He of Arabia) wurde auf seinem Motorrad getötet, weil er die Maschine ausweichen wollte, um nicht zwei Jungen auf ihren Fahrrädern zu treffen. Wäre ein autonomes Auto so heldenhaft?