Wer will überhaupt ein Brain-Machine-Interface?

Bitte teilen Sie diese Geschichte!
Eine gründliche Analyse der Ethik im Zusammenhang mit Gehirn-Maschine-Schnittstellen (BMI), die in der Branche selbst fehlt. Im Allgemeinen gibt es in der Technokraten-/Transhumanisten-Industrie typischerweise keine Ethikstudien, weil sie deren technologischen Fortschritt behindern. Technokraten erfinden, weil sie es können, nicht weil es einen nachgewiesenen Bedarf dafür gibt.⁃ TN Editor

Ich wollte nie eines meiner Geräte mit meinen Gedanken steuern können. Ich bin vollkommen glücklich, eine physische Schnittstelle zu verwenden, die ich ausschalten, loslassen oder von der ich weggehen kann. Was ist mit dir? Hält Sie Ihre Tastatur zurück? Bremst Sie Ihre Maus? Möchten Sie einen Beitrag einfach nur denken, ohne ihn eintragen zu müssen? Warum wird uns die cyborgianische Technologie so stark aufgezwungen?

Hat jemand danach gefragt? Braucht es jemand?

In diesem Essay werde ich die Ethiker betrachten, die Bedenken hinsichtlich der Brain Machine Interface (BMI)-Technologie äußern, deren prognostizierter Nutzen die Fähigkeit wäre, mit Ihrem Verstand zu wischen und mit Ihren Gehirnwellen zu klicken. Ehrlich gesagt sehe ich dafür keinen Bedarf, auch nicht für gelähmte Menschen, da wir hirnoperationsfreie Schnittstellen haben, wie sie Stephen Hawking verwendet. Wollen wir wirklich, dass unsere impulsiven Wut-Tweets sofort gesendet werden?

Nein nein Nein. Das ist nicht, wohin diese Technologie geht. Niemand möchte, dass BMI gewöhnliche Aufgaben auf eine neue Art und Weise erledigt, besonders nicht, wenn es bedeutet, den ganzen Tag einen seltsamen Helm zu tragen oder sich einer Gehirnoperation zu unterziehen. Zuckerbrot und Peitsche hier ist das Versprechen von verbesserte geistige Fähigkeiten.

Es scheint eine koordinierte Panikmache-Kampagne zu geben, um uns davon zu überzeugen, dass transhumante KI-Cyborg-Legionen uns jeden Moment mental übertreffen werden. Also wird jeder einen BMI haben müssen, nur um mithalten zu können. Wenn wir dies tun, wird unser Gehirn leider für jeden mit der richtigen Software lesbar sein, und wir werden nicht in der Lage sein, zwischen unseren eigenen Entscheidungen und denen zu unterscheiden, die über drahtlose Geräte in unseren Kopf implantiert werden.

Das vermuten Neuroethiker wir müssen schnell handeln, vielleicht sogar unsere Verfassungen umschreiben!

Ich finde, dass ihre neuen Vorschläge zu Neurorechten nicht so sehr darauf ausgelegt sind, uns zu schützen, sondern die Art und Weise einzuschränken, in der wir zum Wohle der Allgemeinheit verletzt werden können. Neuroethiker sind Wölfe im Schafspelz. Mal sehen, ob Sie meiner Einschätzung zustimmen.

Betrachten wir für den größeren Kontext zunächst das sogenannte „Trolley-Problem“ im Bereich der Ethik. Angenommen, ein Mann bedient die Schaltstation in einem Rangierbahnhof. Wenn ein außer Kontrolle geratener Zugwagen in fünf Arbeiter auf einem Gleis pflügen will, ist er dann moralisch verpflichtet, den Hebel zu ziehen, um den Wagen umzuleiten, damit er nur einen einzigen Arbeiter auf einem anderen Gleis tötet?

Sie werden vielleicht bemerken, dass ich eine bedeutende Änderung am Standardbild vorgenommen habe, aus dem dieses entfernt wurde Wikipedia , die dieses Dilemma darstellt. Mein Weichensteller handelt nicht in eigener Regie. Er ist ein Vertreter der Regierung, der nach einer bestimmten Richtlinie oder einem Standardverfahren handelt. Deshalb ist er mit einem Regierungsgebäude im Rücken abgebildet. Diese Änderung ändert alles. Laut Protokoll muss er einen Kerl töten, um fünf zu retten.

Aber wenn Handlungen automatisiert sind, gibt es keine Entscheidungsfreiheit, und daher kann das, was der Mann tut, nicht als Entscheidung für ethisches Handeln beschrieben werden. Alte Ethiker, zum Beispiel von Thomas von Aquin oder Kant, argumentierten, dass die Moral von dem handelnden Wer ausgeht frei entscheidet das Handeln, aber heute hat die Vorstellung, dass ein Individuum die Verantwortung hat (nicht die Freiheit, nicht das Recht, sondern die Verantwortung) zwischen richtig oder falsch zu wählen, ist aus der ethischen Diskussion so gut wie verschwunden.

Jose Munoz ist bei der Mind-Brain-Gruppe in Spanien, er ist auch bei Harvard Medical und an einigen anderen wirklich wichtigen Orten. Reviewing die Arbeit einer Kollegin, Nita Farahany, fasst er die Herangehensweise der heutigen Neuroethiker an ein T zusammen. Er argumentiert, dass wir „Richtlinien für neurale Rechte aufstellen“ müssen. (Richtlinien, das klingt sanft, aber ich frage mich, ob sie die Macht der CDC-Richtlinien haben werden, die mit aller Kraft des Gesetzes umgesetzt wurden).

Munoz sagt, das muss es geben Diskussion zwischen Akademikern, Regierungen, Unternehmen und der Öffentlichkeit. (Ich frage mich, wer in der Diskussion das ganze Reden halten wird?) Er sagt, dass „Bürgern“ der Zugang zu ihren Daten garantiert werden muss. (Okay, ich muss durch einige Reifen springen, um herauszufinden, welche Daten ohne mein Wissen oder meine Zustimmung über mich gesammelt wurden, und was dann?)

Ich bemerke die Verwendung des Wortes „Bürger“ statt Menschen or befähigen.

Er möchte nicht, dass wir das als Bürger vergessen Themen eines Staates. Er glaubt auch, dass „eine Alphabetisierung in Bezug auf solche Daten gepflegt werden muss“, was eine wieselige Art ist zu sagen, dass den Menschen gesagt werden muss, was sie über die Datenerfassung denken sollen.  Wann wurden die Personen gebeten, der Datenerhebung zuzustimmen? Die Möglichkeit, dies zu verweigern jedem zu erhebende Daten   steht nicht auf diesem Menü ethischer Richtlinien.

Heutzutage scheinen Ethiker davon auszugehen, dass letztendlich der Staat diese ethischen Entscheidungen treffen muss – natürlich auf der Grundlage von Konsens. Also das ist okay, denn es ist ein demokratisch Verlust der Agentur. Bald wird die KI diese Entscheidungen für uns optimieren, heißt es. Der einzelne Mensch ist zu einem bloßen Instrument geworden, durch das die „ethischen“ Entscheidungen eines anderen ausgeführt werden. Das ist nicht ethisch. Das ist gefährlich.

Wir können das Trolley-Problem an die Frage anpassen, ob der Einzelne zum Wohle der Gesellschaft persönliche Opfer bringen soll oder nicht. Die folgende Abbildung zeigt die Art von Logik, die besagt, dass Menschen ihr Leben im Krieg für das Wohl ihres Landes riskieren oder einen Impfstoff nehmen sollten, der ein gewisses Risiko birgt, weil er für die Herdenimmunität notwendig ist.

 

In diesem Aufsatz werde ich nicht argumentieren, dass das Individuum die hat Recht egoistisch zu sein und sich zu entscheiden, keine persönlichen Opfer für das vermeintliche Wohl anderer zu bringen. Das ist nicht der Grund, warum wir die individuelle Verantwortung über das kollektive Wohl stellen müssen. Wir schätzen die Verantwortung des Einzelnen, denn wenn Einzelpersonen gezwungen, genötigt oder bestochen werden, Opfer für das Gemeinwohl zu bringen, besteht die große Gefahr, dass die Einheit, die die Macht hat, die Politik zu bestimmen, diese Macht unbeabsichtigt oder vorsätzlich zum Schaden einsetzen könnte.

Spätestens wenn Eigenverantwortung gewährt wird, werden Probleme mit mehr Köpfchen angepackt und es gibt mehr Möglichkeiten, gute Lösungen zu finden. Wollen wir wirklich Krieg führen? Sind Impfstoffe tatsächlich sicher und wirksam? Außerdem sind die Fehler an Person machen können, sind normalerweise auf einen kleinen Kreis beschränkt. Die Fehler a politischer Entscheidungsträger wirkt sich auf die gesamte Bevölkerung aus.

Nach einem dreijährigen Alptraum, in dem Fehler wurden nicht gemacht– um auf die von Margaret Anna Alice zu verweisen Gedicht Mit diesem Titel, der die „Philanthropathen“ und andere Anführer des vorsätzlichen Demozids beschuldigt, sollten wir skeptisch gegenüber „Ethikern“ sein, die von uns mehr Opfer fordern, um die Vorstellungen der politischen Entscheidungsträger von einem höheren Wohl zu fördern. Was C0vlD angeht, entwickelt sich der Konsens, dass sie alles falsch gemacht haben: die Abriegelung, Maskierung und Isolation, das Zurückhalten einer frühen Behandlung und die Wiederverwendung von Medikamenten und die Förderung eines experimentellen Impfstoffs.

In letzter Zeit hören wir viel über die Notwendigkeit, Menschenrechte neu zu definieren, da sich die Gesellschaftslandschaft an neue Technologien anpasst, die das Menschsein verändern. Es wird behauptet, dass eine neue „Transhumanismus-Ethik“ erforderlich ist, um uns vor den Gefahren von Hackern oder Regierungen und Unternehmen zu bewahren, die möglicherweise KI einsetzen wollen, um unsere Gedanken zu lesen und unseren Geist zu kontrollieren.

Ienca und Andorno, Autoren von „Towards a New Human Rights in the Age of Neuroscience and Neurotechnology“, stellen fest, wie viele Informationen über Internetnutzer heute gesammelt werden, und sie gehen davon aus, dass neue Technologien auch Gehirndaten sammeln werden. Dies sind die Arten von ethischen Überlegungen, über die sie nachdenken:

„Zu welchen Zwecken und unter welchen Bedingungen können Gehirninformationen gesammelt und genutzt werden? Welche Bestandteile von Gehirninformationen sollen rechtmäßig offengelegt und anderen zugänglich gemacht werden? Wer soll Zugriff auf diese Daten haben (Arbeitgeber, Versicherungen, Staat)? Wo sollten die Grenzen der Einwilligung in diesem Bereich liegen?“

Sie erwähnen nicht einmal das offensichtlichere Argument jedem Online-Datenerfassung könnte als Verletzung der Privatsphäre angesehen werden. Seltsamerweise ist das erste Recht, das sie in diesem Papier diskutieren, das Recht des Einzelnen, sich dafür zu entscheiden - aufkommende Neurotechnologien. In ihren Diskussionen wird auch davon ausgegangen, dass die neuen Technologien das tun, wofür sie angepriesen werden. Keine Diskussionen über die Notwendigkeit von Langzeitstudien oder Tests auf mögliche Technologiefehler. Wir sollten uns daran erinnern, dass die Notfallgenehmigung für den C0vld-Impfstoff gerechtfertigt war, weil es so gesagt wurde Menschen sollten das Recht haben, ungetestete Technologie zu nutzen wenn sie wollen.

In ihrer Diskussion über Neurorechte, die in Chile vorangetrieben werden, sagte Whitney Webb merkt an dass die Armen und Entrechteten an die Spitze der BMI-Studien-Freiwilligenlinie geführt werden.

Ich bin der Meinung, dass Erwachsene in der Lage sein sollten, sich für neue, möglicherweise gefährliche Therapien zu entscheiden, Doppel-D-Brustimplantate zu bekommen, Selbstmord zu begehen, Heroin zu nehmen, als Prostituierte zu arbeiten oder sich selbst zu kastrieren, wenn sie sich freiwillig dafür entscheiden. Aber ich denke nicht, dass es ethisch vertretbar ist, jemanden zu ermutigen oder zu befähigen, sich selbst zu verletzen. Eine ethische Gesellschaft versucht im Allgemeinen, den Menschen zu helfen, zu erkennen, dass sie möglicherweise andere Optionen haben. Wir wollen die Menschen nicht ermutigen, Risiken einzugehen, schon gar keine unnötigen.

Ienca und Andorno teilen uns auch mit, dass…

Die meisten Menschenrechte, einschließlich der Datenschutzrechte, sind relativ, in dem Sinne, dass sie unter bestimmten Umständen eingeschränkt werden können, vorausgesetzt, dass einige Einschränkungen notwendig und ein verhältnismäßiger Weg sind, um einen legitimen Zweck zu erreichen. In Bezug auf das Recht auf Privatsphäre stellt die Europäische Menschenrechtskonvention fest, dass dieses Recht einige Einschränkungen zulässt, „zur Verhütung von Unordnung oder Verbrechen, zum Schutz der Gesundheit oder der Sittlichkeit oder zum Schutz der Rechte und Freiheiten anderer ' (Art. 8 Abs. 2).“

Das hört sich so an, als hätten Europäer keine Datenschutzrechte; Sie haben Privilegien, die jederzeit entzogen werden können, wenn der Staat dies für erforderlich hält.

Es ist bekannt, dass der Gottzillionär Elon Musk, der seinen Anspruch auf Libertarismus aufgibt, will, dass staatliche Vorschriften zur KI, auch wenn er seine invasive Neuralink-KI-Technologie hochjubelt, irreversibel in menschliche Gehirne implantiert wird, um sie zu lesen. Soweit die Testprimaten sind nicht so gut gefahren, und im Herbst 2022 Show & Tell war aufs Äußerste überwältigend. Ein Problem unter den vielen, die sie hatten, war, dass sich die Gehirnwellenmuster des Primaten für einen bestimmten Buchstaben, den die KI an einem Tag gelernt hatte, fünf oder sechs Tage später in ein anderes Muster verwandelten.

Schon Heraklit verstand, dass wir nie zweimal in denselben Fluss steigen. Alle biologischen Prozesse sind dynamisch und ständig im Fluss, insbesondere entstehende Gehirnwellen; sie müssen es sein, denn die Welt ist es auch. Lebewesen müssen sich ständig verändern, nur um mehr oder weniger gleich zu bleiben. Computeralgorithmen, nicht einmal Deep-Learning-Algorithmen, sind nicht so plastisch wie Gehirnwellen.

Seit der Zeit dieses krummen Show & Tell, Neuralink wurde verweigert Erlaubnis, vorerst menschliche Untertanen auszubeuten. Aber ich bezweifle, dass dies verhindern wird, dass das schlechte Geld, das auf diese Technologie geworfen wurde, mehr gutes Geld anzieht. Die Investoren müssen ihr Pump-Geld zurückerhalten, bevor sie abstoßen. Die FDA wird vorbeikommen.

Ich bin nicht gegen technologischen transhumanen Fortschritt, der Menschen hilft, Schwierigkeiten zu überwinden. Bionische Arme sind großartig und sogar die Regeneration von Gliedmaßen klingt nach einer großartigen Idee, die man sorgfältig verfolgen sollte. Aber irgendetwas stimmt nicht mit dieser Diskussion über BMI-Technologie und Neurorechte.

In diesem Jahr hat Nita Farahany, Professorin für Recht und Philosophie und selbsternannte Nueroethikerin an der Duke University, ihr neues Buch beworben. Der Kampf um Ihr Gehirn: Verteidigung des Rechts auf freies Denken im Zeitalter der Neurotechnologie, die nichts dergleichen verteidigt. In diesem Buch gibt sie keine Anleitung, um Menschen zu helfen, die besten ethischen Entscheidungen für sich und ihre Familien zu treffen. Sie versucht, ethische Normen zu verkaufen auferlegten auf uns alle.

In ihrem Buch und in a sich unterhalten bei einem Treffen des Weltwirtschaftsforums in Davos meint Farahany mit gespaltener Zunge. Während sie zum Beispiel anfänglich die Idee der geistigen Privatsphäre und der „kognitiven Freiheit“ verteidigt (Oh, Bruder, müssen sie so umständliche neue Begriffe erfinden?), räumt sie schnell ein, dass es kein absolutes Recht ist – denn schließlich Eines der grundlegendsten Dinge, die wir als Menschen tun, ist zu verstehen, was unsere Mitmenschen denken. Wir müssen ein Gleichgewicht zwischen individuellen und gesellschaftlichen Interessen finden, argumentiert Farahany. Das heißt, die Politik entscheidet, auf welche Rechte Sie verzichten müssen.

Zum Beispiel sagt sie, dass es eine gute Idee sein könnte, Trucker zum Wohle der Allgemeinheit EEG-Geräte tragen zu lassen, um die Müdigkeit zu überwachen. Wenn sie am Steuer einschlafen, könnten sie möglicherweise fünf oder sechs Menschen töten. Kann ich stattdessen vorschlagen, dass Trucker für ihre Arbeit einigermaßen gut bezahlt werden, damit sie nicht länger als acht Stunden am Tag fahren wollen? Können wir alternativ unsere politischen Vertreter dazu bringen, sich einer ständigen Überwachung all ihrer E-Mails und Telefonate und sogar persönlicher Gespräche zu unterwerfen? Weil ihre Entscheidungen möglicherweise Millionen von Menschen töten könnten.

Farahany lobt persönliche Geräte, die biologische Daten überwachen, für ihr Potenzial, Arbeitern quantitative Daten über ihre Leistung zu liefern, damit sie „informierte Selbstverbesserungen“ vornehmen können. Die Tatsache, dass FitBits so beliebt sind, sagt sie, deutet darauf hin, dass die Menschen begeistert davon sind, überwacht und bewertet zu werden. Aber ich bin mir ziemlich sicher, dass Amazon-Lagerarbeiter nicht nach Neurofeedback-Geräten schreien, die ihnen helfen werden, für die Aktionäre profitabler zu sein.

Erzwungene Überwachung und falsche quantitative Bewertung sind meiner Meinung nach unethisch.

Farahany räumt ein, dass eine solche Überwachung sollen freiwillig zu sein und glaubt, dass Mitarbeiter diese Geräte zur Selbstverbesserung annehmen wollen. Heute haben wir etwas Ähnliches mit der Autoversicherung; Menschen erhalten niedrigere Sätze, wenn sie einer Überwachung während der Fahrt zustimmen. Aber wann immer eine Belohnung für das Opfern der Privatsphäre angeboten wird, ist dies nicht ethisch. Es ist zwingend. Die Armen werden sich eher unterwerfen als die Reichen.

Ist die Überwachung der Mitarbeiterleistung überhaupt hilfreich?

Als Yagmur Denizhan argumentiert, in „Simulierte Bildung und illusorische Technologien“, wenn Menschen in Situationen gebracht werden, in denen sie nach verdienten Punkten beurteilt werden – nicht nach allgemeineren und ganzheitlicheren qualitativen Bewertungen – konzentrieren sich die Schlauen schnell darauf, das System zu spielen, damit sie mehr Punkte verdienen können weniger Aufwand und geringere Qualität der Arbeit. Aber Farahany stellt nie die Annahme in Frage, dass es gut für die Produktivität ist, Mitarbeiter negativem und positivem Feedback zu unterwerfen.

 

Lesen Sie die ganze Geschichte hier…

 

 

 

 

Über den Herausgeber

Patrick Wood
Patrick Wood ist ein führender und kritischer Experte für nachhaltige Entwicklung, grüne Wirtschaft, Agenda 21, Agenda 2030 und historische Technokratie. Er ist Autor von Technocracy Rising: Das trojanische Pferd der globalen Transformation (2015) und Co-Autor von Trilaterals Over Washington, Band I und II (1978-1980) mit dem verstorbenen Antony C. Sutton.
Abonnieren
Benachrichtigung von
Gast

2 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen

[…] Quelllink […]

DawnieR

Nur die Zombies werden sie wollen. Immerhin haben sie buchstäblich Scheiße für Gehirne!!

Die Menschen müssen WIRKLICH zu der Erkenntnis kommen, dass nicht jeder auf dem Planeten Erde ein Mensch ist!! Es gibt DREI Arten von Wesen (KEINE Tiere eingeschlossen), die auf dieser Erde wandeln…..

1) MENSCHEN (wir sind die MINDERHEIT)
2) Zombies (NICHT Menschen)
3) Dämonen (NICHT Menschen)

Das ist die REALITÄT, in der wir leben! Verstehen Sie es ……. WISSEN SIE ES!