Wissenschaftler: Daten und KI können erkennen, wer lügt

Fotos der Universität Rochester / J. Adam Fenster
Bitte teilen Sie diese Geschichte!
image_pdfimage_print
Da sich KI-Gesichtsanalysealgorithmen vermehren, werden sie in jeder denkbaren Anwendung und unter allen Umständen implementiert. Eine solche Software wird jedoch niemals als 100% effektiv "zertifiziert", was zu sozialem Chaos führt, wenn Anschuldigungen auftauchen. Technokratische Wissenschaftler, die dieses Zeug erfinden, haben keine Sicht auf Ethik oder gesellschaftliche Implikationen. ⁃ TN Editor

Jemand steht in einer langen Schlange an einem Sicherheitstor des Flughafens. Ist diese Person wegen des Wartens einfach nervös?

Oder ist das ein Passagier, der etwas Unheimliches zu verbergen hat?

Selbst gut ausgebildete TSA-Sicherheitsbeamte (Transportation Security Administration) haben es immer noch schwer, zu sagen, ob jemand lügt oder die Wahrheit sagt - trotz der Milliarden von Dollar und jahrelangen Studien, die diesem Thema gewidmet wurden.

Forscher der University of Rochester verwenden jetzt Data Science und ein Online-Crowdsourcing-Framework namens ADDR (Automated Dyadic Data Recorder), um unser Verständnis von Täuschungen auf der Basis von Gesichts- und verbalen Hinweisen zu verbessern.

Sie hoffen auch, Fälle von rassistischem und ethnischem Profiling zu minimieren, die von TSA-Kritikern beanstandet werden, wenn Passagiere im Rahmen des SPOT-Programms (Screening of Passengers by Observation Techniques) der Agentur zur Seite gezogen werden.

"Im Grunde ist unser System wie Skype für Steroide", sagt Tay Sen, Doktorand im Labor von Ehsan Hoque, ein Assistenzprofessor von Computerwissenschaften. Sen arbeitete eng mit Karmul Hasan zusammen, einem weiteren Doktoranden in der Gruppe, der an zwei Vorträgen in IEEE Automatisierte Gesichts- und Gestenerkennung und der Verfahren des ACM zu interaktiven, mobilen, tragbaren und allgegenwärtigen Technologien. Die Artikel beschreiben das Framework, mit dem das Labor den bislang größten öffentlich verfügbaren Täuschungsdatensatz erstellt hat - und warum manche Lächeln trügerischer sind als andere.

Spiel enthüllt die Wahrheit hinter einem Lächeln

So funktioniert ADDR: Zwei Personen melden sich an Amazon Mechanischer Türke, der Crowdsourcing-Internet-Marktplatz, der Menschen mit Aufgaben in Verbindung bringt, die Computer derzeit nicht ausführen können. Ein Video weist eine Person als Beschreiber und die andere als Vernehmer zu.

Dem Beschreiber wird dann ein Bild gezeigt und er wird angewiesen, sich so viele Details wie möglich zu merken. Der Computer weist den Beschreiber an, entweder zu lügen oder die Wahrheit über das zu sagen, was er gerade gesehen hat. Der Interrogator, der nicht mit den Anweisungen des Beschreibers vertraut war, stellt dem Beschreiber eine Reihe von Grundfragen, die für das Bild nicht relevant sind. Dies geschieht, um individuelle Verhaltensunterschiede zu erfassen, die zur Entwicklung eines „personalisierten Modells“ verwendet werden könnten. Zu den Routinefragen gehört: "Was hast du gestern getragen?" - um einen mentalen Zustand zu provozieren, der für das Abrufen einer Erinnerung relevant ist - und „was ist 14 mal 4?“ - einen für das analytische Gedächtnis relevanten mentalen Zustand zu provozieren.

"Oft neigen Menschen dazu, in eine bestimmte Richtung zu schauen oder eine Art Gesichtsausdruck zu zeigen, wenn sie sich an Dinge erinnern", sagte Sen. "Und wenn ihnen eine Rechenfrage gestellt wird, haben sie eine andere Art von Gesichtsausdruck."

Dies sind auch Fragen, über die der Zeuge keinen Anreiz hätte zu lügen, und die eine Grundlage für die „normalen“ Antworten dieser Person liefern, wenn sie ehrlich beantwortet werden.

Und natürlich gibt es Fragen zum Bild selbst, auf die der Zeuge entweder wahrheitsgemäß oder unehrlich antwortet.

Der gesamte Austausch wird zur späteren Analyse in einem separaten Video aufgezeichnet.

1 Millionen Gesichter

Ein Vorteil dieses Crowdsourcing-Ansatzes besteht darin, dass Forscher einen weitaus größeren Pool von Forschungsteilnehmern abrufen und Daten viel schneller erfassen können, als dies der Fall wäre, wenn die Teilnehmer in ein Labor gebracht werden müssten, so Hoque. Das Fehlen eines standardisierten und konsistenten Datensatzes mit zuverlässiger Grundwahrheit sei der größte Rückschlag für die Täuschungsforschung gewesen, sagt er. Mit dem ADDR-Framework sammelten die Forscher in wenigen Wochen Mühe 1.3-Millionen-Bilder von Gesichtsausdrücken von 151-Paaren von Personen, die das Spiel spielten. Weitere Datenerfassungen finden im Labor statt.

Mit Data Science können die Forscher all diese Daten auf neuartige Weise schnell analysieren. Zum Beispiel verwendeten sie eine automatisierte Software zur Analyse von Gesichtsmerkmalen, um zu identifizieren, welche Aktionseinheiten in einem bestimmten Frame verwendet wurden, und um jedem eine numerische Gewichtung zuzuweisen.

Die Forscher verwendeten dann eine unbeaufsichtigte Clustering-Technik - eine Methode des maschinellen Lernens, mit der Muster automatisch gefunden werden können, ohne dass ihnen vorgegebene Bezeichnungen oder Kategorien zugewiesen wurden.

Es hat uns gesagt, dass es im Grunde genommen fünf Arten von „Gesichtern“ gibt, die mit einem Lächeln zusammenhängen, wenn Menschen auf Fragen antworten “, sagte Sen. Das am häufigsten mit Lügen in Verbindung gebrachte war eine Version des sogenannten Duchenne-Lächelns mit hoher Intensität, die sowohl die Wangen- / Augen- als auch die Mundmuskulatur betraf. Dies steht im Einklang mit der „Duping Delight“ -Theorie, dass „wenn Sie jemanden zum Narren halten, neigen Sie dazu, sich daran zu erfreuen“, erklärte Sen.

Noch rätselhafter war die Entdeckung, dass ehrliche Zeugen oft die Augen zusammenziehen, aber überhaupt nicht mit dem Mund lächeln. "Als wir zurückgingen und die Videos wiedergaben, stellten wir fest, dass dies häufig passierte, wenn Leute versuchten, sich an das zu erinnern, was auf einem Bild zu sehen war", sagte Sen. "Dies zeigte, dass sie sich konzentrierten und versuchten, sich ehrlich zu erinnern."

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast
1 Kommentar
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
Tomsen

Ich frage mich nur, wie Menschen ein Leben ohne Inhalt führen können, nur mit Illusionen.
Wenn AI Facial erkennen kann, wer lügt, warum haben sie das nicht vor langer Zeit bei Al Gore, Obama, Bush und dem 9. September ausprobiert?
Die Antwort lautet: KI basiert auf falschen Prämissen, weshalb das Ergebnis außerhalb des Kurses ebenfalls falsch sein muss