BCI: Die letzte Grenze der Gedankenlesetechnologie ist sehr nahe

BCIYoutube
Bitte teilen Sie diese Geschichte!
Technokraten sind sehr bemüht, in Ihre Gedanken einzudringen, um sie zu lesen. Gehirn-Computer-Schnittstellen in Verbindung mit KI haben eine enorme Unternehmensnachfrage und Sie verlieren jegliche Privatsphäre. ⁃ TN Editor

Social-Media-Unternehmen können bereits Online-Daten nutzen, um zuverlässige Vermutungen über Schwangerschaft oder Suizidgedanken anzustellen - und die neue BCI-Technologie wird dies noch weiter vorantreiben.

IAuf dem Weg zum Bahnhof regnet es nach der Arbeit, aber Sie haben keinen Regenschirm. Aus dem Augenwinkel sehen Sie eine Regenjacke in einem Schaufenster. Sie denken sich: "Eine solche Regenjacke wäre perfekt für so ein Wetter."

Später, wenn Sie im Zug auf Instagram blättern, sehen Sie eine ähnlich aussehende Jacke. Sie schauen genauer hin. Eigentlich ist es genau dasselbe - und es ist ein gesponserter Beitrag. Sie spüren eine plötzliche Welle der Paranoia: Haben Sie etwas über die Jacke gesagt? Hatte Instagram deine Gedanken irgendwie gelesen?

Während die Algorithmen der sozialen Medien uns manchmal auf eine Weise „kennen“ zu lernen scheinen, die sich fast telepathisch anfühlt, sind ihre Erkenntnisse letztendlich das Ergebnis einer Triangulation von Millionen von aufgezeichneten, online ausgelagerten Informationen Aktionen: Klicks, Suchen, Likes, Gespräche, Käufe und so weiter. Dies ist ein Leben unter Überwachung des Kapitalismus.

So leistungsfähig die Empfehlungsalgorithmen auch geworden sind, wir gehen immer noch davon aus, dass unser innerster Dialog intern ist, sofern nicht anders angegeben. Die jüngsten Fortschritte in der BCI-Technologie (Brain-Computer Interface), die kognitive Aktivitäten in einen Computer integriert, könnten dies jedoch in Frage stellen.

Im vergangenen Jahr haben Forscher gezeigt dass es möglich ist, direkt von der Gehirnaktivität in synthetische Sprache oder Text umzuwandeln, indem die neuronalen Signale einer Person mithilfe ausgefeilter KI-Algorithmen aufgezeichnet und decodiert werden.

Während eine solche Technologie einen vielversprechenden Horizont für Menschen mit neurologischen Erkrankungen bietet, die die Sprache beeinflussen, wird diese Forschung ebenfalls aufmerksam verfolgt, und gelegentlich finanziertvon Technologieunternehmen wie Facebook. Eine Verlagerung zu Gehirn-Computer-Schnittstellen, so schlagen sie vor, wird eine revolutionäre Möglichkeit bieten, mit unseren Maschinen und untereinander zu kommunizieren, eine direkte Linie zwischen Geist und Gerät.

Aber wird der Preis, den wir für diese kognitiven Geräte zahlen, ein Eingriff in unsere letzte Bastion wirklicher Privatsphäre sein? Sind wir bereit, unsere kognitive Freiheit für optimierte Onlinedienste und gezieltere Anzeigen aufzugeben?

Ein BCI ist ein Gerät, das eine direkte Kommunikation zwischen dem Gehirn und einer Maschine ermöglicht. Grundlage dieser Technologie ist die Fähigkeit, im Gehirn auftretende neuronale Signale in Befehle zu decodieren, die von der Maschine erkannt werden können.

Da neuronale Signale im Gehirn häufig verrauscht sind, ist die Dekodierung äußerst schwierig. Während in den letzten zwei Jahrzehnten einige Erfolge bei der Dekodierung sensorisch-motorischer Signale in Rechenbefehle zu verzeichnen waren - was beeindruckende Leistungen wie diese ermöglichte ziehen um ein Cursor über einen Bildschirm mit dem Verstand oder manipulieren Eine Roboter-Arm-Gehirn-Aktivität, die mit anderen Formen der Wahrnehmung in Verbindung steht, wie z. B. Sprache, ist zu komplex geblieben, um dekodiert zu werden.

Fortschritte beim tiefen Lernen, eine KI-Technik, die die Fähigkeit des Gehirns nachahmt, aus Erfahrungen zu lernen, verändern jedoch die Möglichkeiten. Im April dieses Jahres hat ein Forschungsteam an der University of California, San Francisco, veröffentlicht Ergebnisse eines erfolgreichen Versuchs, neuronale Aktivität über ein tief lernfähiges BCI in Sprache umzuwandeln.

Das Team platzierte kleine elektronische Arrays direkt auf dem Gehirn von fünf Personen und zeichnete deren Gehirnaktivität sowie die Bewegung ihrer Kiefer, Münder und Zungen auf, während sie laut aus Kinderbüchern vorlas. Diese Daten wurden dann verwendet, um zwei Algorithmen zu trainieren: Einer lernte, wie Gehirnsignale die Gesichtsmuskeln anwiesen, sich zu bewegen; der andere lernte, wie diese Gesichtsbewegungen zu hörbarer Sprache wurden.

Sobald die Algorithmen trainiert waren, wurden die Teilnehmer erneut gebeten, aus den Kinderbüchern vorzulesen, diesmal nur die Wörter nachzumachen. Die algorithmischen Systeme konnten nur Daten aus neuronalen Aktivitäten verwenden, um das Gesagte zu entschlüsseln und verständliche synthetische Versionen der simulierten Sätze zu erstellen.

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast
1 Kommentar
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen