Könnte ein Programm potenzielle Terroristen anhand ihrer Mimik und ihres Verhaltens erkennen? Dies war die Hypothese, die von der US-amerikanischen Transportation Security Administration (TSA) in 2003 auf den Prüfstand gestellt wurde, als mit dem Testen eines neuen Überwachungsprogramms mit dem Namen Screening of Passengers by Observation Techniques, kurz Spot, begonnen wurde.
Während der Entwicklung des Programms konsultierten sie Paul Ekman, emeritierter Professor für Psychologie an der University of California in San Francisco. Vor Jahrzehnten hatte Ekman eine Methode entwickelt, um winzige Gesichtsausdrücke zu identifizieren und sie den entsprechenden Emotionen zuzuordnen. Diese Methode wurde verwendet, um „Verhaltenserkennungsbeamte“ darin zu schulen, Gesichter auf Anzeichen von Täuschung zu untersuchen.
Aber als das Programm in 2007 eingeführt wurde, gab es viele Probleme. Offiziere waren Bezugnahme Passagiere, die mehr oder weniger willkürlich verhört wurden, und die geringe Anzahl von Verhaftungen erfolgten aufgrund von Anklagen, die nichts mit Terrorismus zu tun hatten. Noch besorgniserregender war die Tatsache, dass das Programm angeblich war benutzt Rassenprofilierung zu rechtfertigen.
Ekman versuchte sich von Spot zu distanzieren und behauptete, seine Methode sei falsch angewandt worden. Andere meinten jedoch, das Scheitern des Programms liege an einer veralteten wissenschaftlichen Theorie, die Ekmans Methode untermauerte. nämlich, dass Emotionen durch Gesichtsanalyse objektiv abgeleitet werden können.
In den letzten Jahren haben Technologieunternehmen damit begonnen, mithilfe der Ekman-Methode Algorithmen zu trainieren, um Emotionen aus Mimik zu erkennen. Einige Entwickler behaupten, dass automatische Emotionserkennungssysteme nicht nur besser als Menschen darin sind, wahre Emotionen durch Gesichtsanalyse zu entdecken, sondern dass diese Algorithmen sich auf unsere innersten Gefühle abstimmen und die Interaktion mit unseren Geräten erheblich verbessern.
Viele Experten, die sich mit Emotionswissenschaften befassen, befürchten jedoch, dass diese Algorithmen erneut versagen und auf der Grundlage fehlerhafter Wissenschaft wichtige Entscheidungen über unser Leben treffen werden.
Die Emotionserkennungstechnologie erfordert zwei Techniken: Computervision, um Gesichtsausdrücke genau zu identifizieren, und Algorithmen für maschinelles Lernen, um den emotionalen Inhalt dieser Gesichtsmerkmale zu analysieren und zu interpretieren.
In der Regel wird im zweiten Schritt eine Technik verwendet, die als überwachtes Lernen bezeichnet wird. Hierbei handelt es sich um einen Prozess, mit dem ein Algorithmus trainiert wird, um zuvor gesehene Dinge zu erkennen. Die Grundidee ist, dass, wenn Sie dem Algorithmus Tausende und Abertausende von Bildern von glücklichen Gesichtern mit der Bezeichnung „glücklich“ zeigen, wenn er ein neues Bild von einem glücklichen Gesicht sieht, es erneut als „glücklich“ identifiziert.
Eine Doktorandin, Rana el Kaliouby, war eine der ersten, die mit diesem Ansatz experimentierte. In 2001 stellte sie nach ihrem Umzug von Ägypten an die Universität Cambridge zum Doktor der Informatik fest, dass sie mehr Zeit mit ihrem Computer verbrachte als mit anderen Menschen. Sie dachte, wenn sie dem Computer beibringen könnte, ihren emotionalen Zustand zu erkennen und auf ihn zu reagieren, wäre ihre Zeit, die sie fern von Familie und Freunden verbrachte, weniger einsam.
Kaliouby widmete den Rest ihres Doktorats der Arbeit an diesem Problem und entwickelte schließlich ein Gerät, mit dem Kinder mit Asperger-Syndrom Mimik lesen und darauf reagieren können. Sie nannte es das „emotionale Hörgerät“.
In 2006 trat Kaliouby dem Affective Computing-Labor am Massachusetts Institute of Technology bei, wo sie gemeinsam mit der Leiterin des Labors, Rosalind Picard, die Technologie weiter verbesserte und verfeinerte. Dann in 2009, sie Mitbegründer ein Startup namens Affectiva, das erste Unternehmen, das "künstliche emotionale Intelligenz" vermarktet.
Der größte Terrorist ist die Regierung
Wo ist der Gesichts-Scan für sie?