Gesichtslese-KI sagt Polizei, wenn Sie liegen

Lügenerkennung
Bitte teilen Sie diese Geschichte!
image_pdfimage_print
Die Strafverfolgung schränkt den Einsatz von Technologien, von denen bekannt ist, dass sie schwerwiegende Genauigkeitsprobleme aufweisen, kaum ein, wie dies bei AI der Fall ist, die Vorhersageanalyse, Lügenerkennung und Gesichtserkennung vor dem Verbrechen durchführt. ⁃ TN Editor

Die Forschungen des amerikanischen Psychologen Paul Ekman über Gesichtsausdrücke führten vor mehr als vier Jahrzehnten zu einer völlig neuen Karriere menschlicher Lügendetektoren. Künstliche Intelligenz könnte bald ihre Arbeit aufnehmen.

Während die USA Pionierarbeit im Einsatz automatisierter Technologien geleistet haben, um die verborgenen Gefühle und Reaktionen von Verdächtigen aufzudecken, ist diese Technik noch im Entstehen begriffen, und eine ganze Reihe unternehmerischer Unternehmungen bemüht sich, sie effizienter und weniger anfällig für falsche Signale zu machen.

Facesoft, ein britisches Start-up, gibt an, eine Datenbank mit 300 Millionen Bildern von Gesichtern erstellt zu haben, von denen einige von einem KI-System nach dem Vorbild des menschlichen Gehirns erstellt wurden, berichtete The Times. Das vom Unternehmen entwickelte System kann Emotionen wie Wut, Angst und Überraschung anhand von Mikroausdrücken identifizieren, die für den zufälligen Betrachter häufig unsichtbar sind.

„Wenn jemand unaufrichtig lächelt, kann sein Mund lächeln, aber das Lächeln reicht nicht bis in die Augen - Mikroausdrücke sind subtiler und schneller“, sagt Mitbegründer und Chief Executive Officer Allan Ponniah, der auch plastischer und rekonstruktiver Chirurg ist in London, sagte die Zeitung.

Laut Ponniah hat sich Facesoft in Mumbai an die Polizei gewandt, um das System zur Überwachung von Menschenmengen zu nutzen, um die sich entwickelnde Mob-Dynamik zu erkennen. Es hat auch sein Produkt an Polizeikräfte in Großbritannien angepriesen

Die Verwendung von KI-Algorithmen bei der Polizei hat in letzter Zeit Kontroversen ausgelöst. Eine Forschungsgruppe, zu deren Mitgliedern Facebook Inc., Microsoft Corp., Alphabet Inc., Amazon.com Inc. und Apple Inc. gehören, veröffentlichte im April einen Bericht, in dem festgestellt wurde, dass aktuelle Algorithmen der Polizei dabei helfen sollen, zu bestimmen, wem Kaution, Bewährung oder Bewährung gewährt werden sollen. und die Richter dabei unterstützen, Urteilsentscheidungen zu treffen, potenziell voreingenommen und undurchsichtig sind und möglicherweise nicht einmal funktionieren.

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast
1 Kommentar
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen