In den Wochen seit den US-Präsidentschaftswahlen hat Facebook-Chef Mark Zuckerberg ein Feuergefecht geführt. Nicht wörtlich, aber im übertragenen Sinne. Weitverbreitete Anschuldigungen besagen, dass sein Social-Media-Unternehmen durch die Verbreitung gefälschter Nachrichten und „Filterblasen“ zum unerwarteten Ausgang der Wahlen beigetragen hat. Zuckerberg hat diese Behauptungen hart widerlegt, aber der Fall wirft eine heikle Frage auf: Wie stellen wir sicher, dass Technologie für die Gesellschaft funktioniert?
Es entsteht eine vierte industrielle Revolution, die schwierige ethische Fragen mit wenigen einfachen Schwarz-Weiß-Antworten aufwirft. Kleinere, leistungsstärkere und billigere Sensoren; Fortschritte beim kognitiven Rechnen in den Bereichen künstliche Intelligenz, Robotik, Predictive Analytics und maschinelles Lernen; Nano-, Neuro- und Biotechnologie; das Internet der Dinge; 3D-Druck; und vieles mehr, fordern schon sehr schnell echte Antworten. Und das wird nur schwieriger und komplexer, wenn wir diese einbetten Technologien in unseren Körper und unser Gehirn, um unsere körperlichen und kognitiven Funktionen zu verbessern.
Nehmen wir die Wahl, die die Gesellschaft bald am Beispiel autonomer Autos treffen muss. Wenn ein Unfall nicht vermieden werden kann, sollte ein Auto so programmiert werden, dass die Verluste durch Umstehende selbst dann minimiert werden, wenn es den Insassen des Autos schadet, oder sollte das Auto seine Insassen unter allen Umständen schützen?
Untersuchungen belegen, dass die Öffentlichkeit in Konflikt gerät. Verbraucher würden es vorziehen, die Zahl der Opfer bei einem Autounfall zu minimieren, sind jedoch nicht bereit, ein selbstfahrendes Auto zu kaufen, wenn es nicht selbstschützend ist. Natürlich besteht die ideale Option für Unternehmen darin, Algorithmen zu entwickeln, die diese Möglichkeit vollständig umgehen. Dies ist jedoch möglicherweise nicht immer eine Option. Es ist jedoch klar, dass solche ethischen Probleme in Einklang gebracht werden müssen, bevor ein Verbraucher seine Schlüssel zu Algorithmen mit dunklen Löchern übergibt.
Wie können wir unter Einbeziehung so vieler unterschiedlicher Stakeholder ein Governance-Modell sicherstellen, mit dem Technologie für die Gesellschaft funktioniert?