In der Zukunft der Überwachung geht es um Verhalten, nicht um Gesichter

Überwachung
Bitte teilen Sie diese Geschichte!
Aufgrund fehlender Vorschriften und Gesetze geht die allgegenwärtige Überwachung weit über die einfache biometrische Identifizierung hinaus und konzentriert sich nun auf Verhaltensweisen, einschließlich der Analyse vor Straftaten. Gesichtsausdrücke, Augenbewegungen, Gangart, Atmung usw. werden AI-Algorithmen zugeführt, um Stimmung, Persönlichkeit und Emotionen zu erfassen. ⁃ TN Editor

In 1787, englischer Philosoph Jeremy Bentham kam auf die Idee, ein Gefängnis zu errichten, das einen Bruchteil der Kosten anderer zeitgenössischer Gefängnisse kosten würde und praktisch kein internes Verbrechen verursacht. Sein theoretisches Gefängnis, das Panoptikum, war gekrümmt, und die Zellen waren nach innen gerichtet zu einem Mittelpunkt, an dem ein Wachturm stehen würde. Die Fenster im Wachturm sollten einseitig abgedunkelt werden. Auf diese Weise könnte eine einzige Wache das Verhalten aller Gefangenen beobachten. Aber was noch wichtiger ist, die Gefangenen würden nie erfahren, ob der Blick der Wache auf sie gerichtet war. Das Endergebnis ist, dass jeder Einzelne im Gefängnis das Gefühl hat, ständig beobachtet zu werden, und sich dementsprechend verhält.

Diese Idee des Panoptikums hat sich zu einem Ersatz für die Gefahr einer allgegenwärtigen Überwachung entwickelt, was hauptsächlich auf Benthams Wahl des Schauplatzes - eines Gefängnisses - zurückzuführen ist. Aber Bentham wollte die Menschen nicht erschrecken, sondern einen Weg finden, um mit knappen Ressourcen umzugehen: die Aufmerksamkeit der Strafverfolgungsbehörden.

Ein neuer Trend in der Videoüberwachungstechnologie verwandelt Benthams Panoptikum in die Realität, aber nicht so, wie er es sich vorgestellt hat. Anstelle eines Gefängnisses würde das neue Panoptikum die Aufmerksamkeit der Strafverfolgungsbehörden auf eine Person lenken, wenn ihr Verhalten für den Wachturm relevant wird. Stellen Sie sich vor, Sie könnten nicht die Gesichter von Menschen erkennen, die bereits Verbrechen begangen hatten, sondern das Verhalten, das auf ein bevorstehendes Verbrechen hinweist.

Mehrere Anbieter und Startups, die an der ISC West, einer kürzlich in Las Vegas abgehaltenen Konferenz für Sicherheitstechnologie, teilnahmen, versuchten, einen wachsenden Markt für Überwachungsgeräte und -software zu bedienen, die versteckte Waffen finden, Nummernschilder und andere Identitätsindikatoren lesen und sogar menschliches Verhalten entschlüsseln können.

Eine Firma namens ZeroEyes außerhalb von Philadelphia vermarktet ein System an Polizeibehörden, das erkennen kann, wann eine Person mit einer Waffe eine bestimmte Einrichtung betritt. Es lässt sich in eine beliebige Anzahl von Überwachungssystemen mit geschlossenem Kreislauf integrieren. Aber Algorithmen für maschinelles Lernen kommen nicht einfach aus dem Kasten und wissen, wie man eine Schusswaffe erkennt, genauso wenig wie ein Drogenhund vom Züchter kommt, der den Unterschied zwischen Marihuana und Oregano kennt. Um den Algorithmus zu lehren, erscheint ein Team des Unternehmens vor Ort und führt Scheinangriffe durch. Langsam beginnt der Algorithmus zu lernen, wie eine Waffe in dieser bestimmten Einstellung aussieht, abhängig von Licht, Winkeln und anderen Bedingungen. Sie arbeiten derzeit mit New Yorker Schulen zusammen und haben einen Vertrag mit dem US-Zoll und der Border Patrol, sind aber noch nicht an der Grenze stationiert, sagte Kenny Gregory, ein Software-Ingenieur des Unternehmens.

Die automatische Erkennung von Schusswaffen ist eine Lösung für ein wachsendes Problem, für das es keine eindeutige Abhilfemaßnahme gibt: die Eindämmung von Massenerschießungen und Waffengewalt. Während einige Umfragen zeigen, dass 70 Prozent Von den Amerikanern, die strengere Waffengesetze befürworten, liegt diese Zahl unter den Konservativen weit unter 31 Prozent. Und so ist die politische Debatte, obwohl sie feurig ist, ins Stocken geraten. Waffenerkennungsalgorithmen, die das Sicherheitspersonal alarmieren, wenn eine bewaffnete Person eintrifft, können die Zahl der Opfer verringern - wenn auch wahrscheinlich nicht so stark, als gäbe es überhaupt keinen bewaffneten Schützen.

Es ist eher ein prognostischer Indikator für potenzielle Gewalt als ein nacheilender Indikator wie Gesichtserkennung und enthält weniger politisches Gepäck. Immer mehr Städte und Polizeibehörden experimentieren mit Gesichtserkennung, um die Anwesenheit von Verdächtigen in Echtzeit zu erkennen. Sie stoßen auf heftigen Widerstand von Anwälten der Privatsphäre in San Francisco, wo einige Gesetzgeber tätig sind suchen nach Block Deployment und anderswo.

Abonnieren
Benachrichtigung von
Gast
2 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
Sie

Diese Verhaltenserkennungsmodule waren schon immer das Ziel - vollständige Kontrolle über die Menschheit. Dies ist keine Überraschung für denkende Menschen. Wie oft haben diejenigen, die verstehen, was passiert, den Film MINORITY REPORT als Beispiel genommen? Wenn es einen Film gibt, der eine neue oder unbekannte Technologie enthält, ist er für diejenigen, die ihn für schändliche Zwecke inszenieren würden, längst vorbei. Hollywood ist eine Bereicherung - verstanden? Die überwiegende Mehrheit der Öffentlichkeit tut dies nicht. Ich bin immer wieder erstaunt über die Fehlleitung, die halben Wahrheiten und die direkten Lügen, die dieses Thema umgeben und von den Oberherren polmogiert werden.

Steven

Ich glaube, die korrekte Statistik besagt, dass 70% der Amerikaner Hintergrundüberprüfungen von Schusswaffen unterstützen. Was natürlich nur bedeutet, dass viele Amerikaner mit den Hintergrundprüfungen, die wir bereits haben, einverstanden sind. Sie können keine Waffe in einem Geschäft ohne Hintergrundüberprüfung kaufen. Aber sie formulieren es so, dass 70% der Amerikaner ZUSÄTZLICHE Waffengesetze unterstützen. Typische Medien.