Autonome Fahrzeuge scheinen in vielen der heutigen Technologielinien der letzte Schrei zu sein. Tech-Unternehmen wie Tesla und Google werden einfach nicht aufgeben, oder?
Für das, was es wert ist, ist die Wahrscheinlichkeit, dass sogenannte "selbstfahrende" Autos abheben, gering. Sicher, Tech-Mogule sagen, es sei das nächste große Ding, genau wie 5G, das Internet der Dinge, „intelligente Zähler“ und die Vielzahl anderer Tech-Katastrophen, die im ganzen Land auftauchen und größtenteils mit zweckentfremdeten öffentlichen Mitteln finanziert werden. Aber warum solltest du ihnen glauben? Angesichts der Tatsache, dass autonome Fahrzeuge höchstwahrscheinlich eine V2V- oder „Fahrzeug-zu-Fahrzeug“ -Kommunikation mit hochfrequenten Millimeterwellen erfordern würden, kann man mit Sicherheit sagen, dass zu viele dieser Fahrzeuge jemals auf die Straße gehen werden etwas aber sicher.
Das einzig wahre, was autonome Fahrzeuge zu bieten haben, ist der „Sicherheitsschirm“, der unsere Dummheit eher erweitert als einen gültigen Punkt für sich darstellt. Wenn die Menschen auf die Straße achten würden, würden die Verkehrstoten unglaublich verringert. Wenn Alkohol und Mobiltelefone von Fahrzeugen ferngehalten würden, wären die Autobahnen viel sicherer!
Autonome Fahrzeuge werfen jedoch nicht nur gesundheitliche Probleme auf. Es gibt ernsthafte ethische Implikationen, mit denen sich die Menschen auseinandersetzen müssen, wenn sie ernsthaft in Erwägung ziehen, diese Fahrzeuge der Zerstörung auf die Straße zu setzen.
Das Media Lab des MIT hat kürzlich einige der moralischen Dilemmata der künstlichen Intelligenz untersucht, die im Bereich der autonomen Fahrzeuge eine große Rolle spielen würden. Schließlich muss ein autonomes Fahrzeug in der Lage sein, Anrufe zu tätigen, wenn es um die Sicherheit seiner Insassen und seiner Umgebung geht. Viele ethische Fragen sind nicht eindeutig. Zumindest scheinbar ist dies auch eine der Fragen, die MIT-Forscher untersucht haben: Wer sollte bei einer Kollision sterben, an der ein autonomes Fahrzeug beteiligt ist? Wir Menschen haben einen moralischen Kompass, der uns in solchen Dilemmata führt. Künstliche Intelligenz, egal wie „intelligent“, geht am Ende des Tages auf 1 und 0 zurück und hat keinen solchen moralischen Kompass. MIT-Forscher untersuchten, ob Menschen der Meinung sind, dass ein autonomes Fahrzeug eine junge oder ältere Person treffen sollte, um ihre Insassen zu retten.
Laut ZDNet„Wir waren uns weltweit einig, dass es Vorrang haben sollte, das Leben von Menschen vor Tieren zu schützen. Viele Menschen sollten eher gerettet werden als wenige, und die Jungen sollten gegenüber den älteren Menschen erhalten bleiben. “ Hat sonst noch jemand ein Problem?
Patricia Burke fasst es in ihrem Artikel zu diesem Thema perfekt zusammen:
Wenn die Technik hinter selbstfahrenden Autos dazu führen kann, dass die Intelligenz eines Karriereautos entscheidet, ob die ältere Dame auf dem Zebrastreifen oder das Baby in der Kutsche auf dem Bürgersteig getroffen wird, müssen wir zum Zeichenbrett zurückkehren. - Das "Künstliche" der Künstlichen Intelligenz und MITs "Moral Machine"
Ich kann sehen, warum die meisten Menschen zustimmen würden, das Leben von Menschen gegenüber anderen Tieren zu schonen, ist von größter Bedeutung. Es ist eine moralische Entscheidung, der die meisten von uns zustimmen würden. Aber was ist mit pauschalen Aussagen wie „Die Jungen sollten über die Alten erhalten bleiben“?
Die Antworten auf diese Fragen waren in der Regel stark kulturell beeinflusst. Wenn Jugend als Kultur mehr geschätzt wird als Alter, warum nicht mitmachen? Das Problem ist, wenn Entscheidungen wie diese programmiert werden, keine Unterscheidung getroffen wird. Sollte ein autonomes Fahrzeug eine ältere Person treffen, auch wenn es der Präsident der Vereinigten Staaten ist? Auch wenn es Paul McCartney ist? Auch wenn es deine Oma ist? Werden autonome Fahrzeughersteller bestimmte „Ausnahmen“ von der „No-Kill“ -Liste programmieren und tatsächlich sagen: „Alle anderen sind Freiwild“? Dies sind ernsthafte ethische Fragen, mit denen wir uns auseinandersetzen müssen, wenn es welche geben soll jedem Gespräch über die Zukunft autonomer Fahrzeuge.
Hier ist eine andere Frage: Sollte ein autonomes Fahrzeug, wenn es gezwungen ist zu wählen, beschließen, Fußgänger in der Nähe zu töten oder seine eigenen Insassen zu töten?
Die amerikanische Kultur ist sehr individuell. Als Teil unserer Kultur sind wir selbstbewusster und motivierter als viele andere Kulturen, insbesondere in Europa und im Osten. Es wäre also sinnvoll, dass das autonome Fahrzeug handelt, um seinen Besitzer zu retten; es wäre nur natürlich, oder?
Auch hier haben wir ein ernstes moralisches Dilemma. Wer sind autonome Fahrzeugnutzer, die sagen, dass ihr Leben so wichtig ist, dass sie automatisch verschont bleiben und dass jeder, der in der Nähe ist, wegen der Entscheidung, ein selbstfahrendes Auto zu benutzen, sterben muss?
Es ist egoistisch, was es ist.
Auf moralischer Ebene gibt es keine richtige Antwort auf diese Frage. Aber aus der Perspektive von Gerechtigkeit und „was richtig ist“ gibt es zumindest auf diese Frage eine klare Antwort.
Es gibt Leute, die selbstfahrende Autos wollen, und es gibt Leute, die das nicht wollen. Im Allgemeinen sind Verallgemeinerungen etwas, das wir gerne vermeiden, aber im Allgemeinen fühlen sich jüngere Menschen mit autonomen Fahrzeugen wohler - schließlich lassen sie die Technologie bereits ihr Leben laufen (und ruinieren vielleicht), nicht wahr?
Mit anderen Worten, Sie werden eher einen Studenten finden, der in einem autonomen Fahrzeug durch die Stadt streift, als einen Senioren. Macht Sinn, oder? Junge Menschen meiden heute Verantwortung wie die Pest und haben alle möglichen bedeutungslosen, zwecklosen Technologien angenommen und sind dann süchtig nach ihnen geworden. Autonome Fahrzeuge sind eine weitere Modeerscheinung, die praktisch nicht anders ist. (Okay, jetzt genug junge Leute verprügeln.)
Aus Sicht der Gerechtigkeit ist es wenig sinnvoll, autonome Fahrzeuge so zu programmieren, dass sie auf umstehende Personen oder Fußgänger abzielen. Immerhin sind sie völlig unschuldig, entwirrt von der ganzen Situation. Warum sollten sie bestraft werden? Wäre es für ein selbstfahrendes Auto nicht sinnvoller, wenn es keine Alternative hätte, stattdessen seine Insassen zu töten?
Es klingt extrem, sogar fremdartig. Natürlich. Aber legen Sie Emotionen beiseite und denken Sie wirklich analytisch darüber nach: Wenn es Menschen gibt, die bereit sind, ihr Leben einem autonomen Fahrzeug anzuvertrauen, das moralische Entscheidungen treffen soll, kann es das nicht vom Nutzer definierten bereit sein, den Preis zu zahlen, wenn sie tatsächlich ihr Vertrauen verloren haben.
Warum sollten unschuldige Zuschauer oder Fußgänger, die sich vielleicht nie für diese Technologie ausgesprochen oder sie angenommen haben, Kollateralschäden verursachen, wenn vom Nutzer definierten Warnen Sie schon immer andere davor?
Um klar zu sein, wir befürworten niemanden sollte sterben; das wäre unmenschlich. Die schlimme Realität ist jedoch, dass Menschen sterben und Menschen bei Verkehrsunfällen sterben. Und wenn eine Wahl getroffen werden muss, ist es nur fair, dass die Leute, die an die Technologie glaubten und sie unterstützten und danach fragten und sie kauften, die Konsequenzen tragen sollten if wenn es nötig wird. Dort habe ich es gesagt - Wenn Sie bereit sind, einem autonomen Fahrzeug zu vertrauen, das für die Verwendung eines solchen Fahrzeugs ausreicht, sollten Sie bereit sein, das erste Opfer zu sein, wenn eine möglicherweise tödliche Entscheidung getroffen werden muss.
Logischerweise glauben wir, dass dies eine vollkommen faire Richtlinie ist. Beachten Sie also die autonomen Fahrzeughersteller: Wenn Sie so zuversichtlich in Ihre Produkte sind, programmieren Sie sie so, dass sie ihre Besitzer töten, nicht unschuldige Zuschauer! Das ist richtig, töte deine Kunden! (Das wird natürlich nie passieren, denn die Leute, die autonome Fahrzeuge herstellen, sind genauso egoistisch wie die Leute, die sie benutzen!)
Und während wir nicht sagen, dass junge Menschen weniger wert sind als alte, junge Menschen sind eher autonome Fahrzeuge unterstützen. Wenn also eine Fehlfunktion auftritt, warum nicht einen jungen Menschen ansprechen? Die alten Leute fragen nicht nach dieser Technologie; warum soll vom Nutzer definierten bestraft werden, wenn es fehler hat?
Gefällt dir diese Argumentation nicht? Wir auch nicht - es ist nur ein weiterer Grund, warum autonome Fahrzeuge wahrscheinlich niemals Realität werden (und sollten).
Autofahren ist im Vergleich zu anderen Dingen, die wir täglich tun, eine unglaublich gefährliche Aktivität. Eine Person würde nichts daran denken, über die Bordsteinkante zu springen, um zu vermeiden, dass sie ein Kind trifft, das unerwartet auf die Straße schießt. ein selbstfahrendes Auto würde. Wenn Sie der Meinung sind, dass wir diese anspruchsvolle Verantwortung sicher, menschlich und ethisch einem eingebetteten Computer anvertrauen können (der unweigerlich drahtlos verbunden und anfällig für Hacking ist), dann überlegen Sie es sich noch einmal. Computer sind erstaunliche und leistungsstarke Werkzeuge, aber es gibt nur einige Dinge im Leben, die Sie selbst tun müssen.
TE Lawrence (He of Arabia) wurde auf seinem Motorrad getötet, weil er die Maschine ausweichen wollte, um nicht zwei Jungen auf ihren Fahrrädern zu treffen. Wäre ein autonomes Auto so heldenhaft?