Wie Technokraten dein Gesicht in eine Kriegswaffe verwandelten

Bitte teilen Sie diese Geschichte!
Die umstrittene Clearview AI hat wohlwollend ihre Gesichtserkennungssoftware der Ukraine gespendet, um tote und lebendige russische Invasoren zu identifizieren. Dies ist möglicherweise der erste Fall, in dem das Gesicht einer Person als Kriegswaffe verwendet wird, und verheißt nichts Gutes für zukünftige Kriegsführung. Clearview kratzt Bilder aus sozialen Medien und dem Internet ab, um den weltweit größten Bestand an Gesichtern zu verwalten. ⁃ TN-Editor

Wem gehört dein Gesicht? Sie denken vielleicht, dass Sie das tun, aber bedenken Sie, dass Clearview AI, ein amerikanisches Unternehmen, das Gesichtserkennungstechnologie verkauft, seit 2020 eine Datenbank mit zehn Milliarden Bildern angehäuft hat. Bis Ende des Jahres will es 100 Milliarden abgekratzt haben Gesichtsbilder aus dem Internet. Es ist schwierig, die Behauptungen des Unternehmens zu beurteilen, aber wenn wir Clearview AI für bare Münze nehmen, hat es genug Daten, um fast jeden auf der Erde zu identifizieren und Privatsphäre und Anonymität überall zu beenden.

Während Sie diese Worte lesen, verdient Ihr Gesicht Geld für Menschen, die Sie nie getroffen haben und die nie Ihre Zustimmung eingeholt haben, als sie Ihren Gesichtsabdruck von Ihren Social-Media-Profilen und Online-Fotoalben genommen haben. Heute ist die Technologie von Clearview AI benutzt von über 3,100 US-Strafverfolgungsbehörden sowie dem US Postal Service. In der Ukraine wird es als Kriegswaffe eingesetzt. Das Unternehmen hat seine Tools der ukrainischen Regierung kostenlos angeboten Verwendung von Sie zu identifizieren tote und lebende russische Soldaten und dann kontakt ihre Mütter.

Es wäre leicht, dies abzutun. Schließlich haben wir unsere Privatsphäre freiwillig aufgegeben, als wir begannen, Fotos online zu teilen, und Millionen von uns verwenden weiterhin Websites und Apps, die unsere Daten nicht schützen, trotz Warnungen von Datenschutzaktivisten und westlichen Sicherheitsdiensten. Wie so viele von uns mit der Ukraine sympathisieren und darüber entsetzt sind Russlands Brutalität, ist es verlockend, die Tatsache zu übersehen, dass die Ukraine Clearview AI nicht verwendet, um tote Ukrainer zu identifizieren, was darauf hindeutet, dass wir die Verwendung von Gesichtserkennungstechnologie für psychologische Kriegsführung und nicht für die Identifizierung beobachten. Einige Leute werden mit den Implikationen einverstanden sein: Wenn russische Mütter verstörende Fotos ihrer toten Söhne erhalten müssen, soll es so sein.

Um zu verstehen, warum wir den Einsatz von Gesichtserkennungstechnologie in Konflikten überdenken sollten, betrachten Sie die folgenden Gedankenexperimente. Stellen Sie sich zunächst vor, Russland hätte ukrainische biometrische Daten aus dem Internet geschrammt, um ein Technologietool zur Gesichtserkennung zu entwickeln, mit dem es tote Ukrainer identifiziert und ihre Mütter kontaktiert. Liberale Demokratien würden diese Aktionen wahrscheinlich verurteilen und sie ihrer wachsenden Liste der barbarischen Aktionen Russlands hinzufügen. Stellen Sie sich zweitens einen Konflikt vor, in dem die Vereinigten Staaten gegen einen Gegner kämpfen, der amerikanische Gesichtsabdrücke genommen hatte, um seine Gesichtserkennungstechnologie zu trainieren, und diese verwendet, um tote amerikanische Soldaten zu identifizieren und ihre Mütter zu kontaktieren. Dies würde mit ziemlicher Sicherheit Protestgeheul in den Vereinigten Staaten auslösen. Technologiemanager würden in der Presse verleumdet und vor den Kongress gezerrt, wo der Gesetzgeber vielleicht endlich ein Gesetz zum Schutz der biometrischen Daten der Amerikaner verabschieden könnte.

Wir müssen nicht darauf warten, dass diese Szenarien eintreten; Der Kongress könnte jetzt handeln, um die biometrischen Daten der Amerikaner zu schützen. Wenn es ein Schritt zu weit scheint, sich von der Datenschutz-Grundverordnung (DSGVO) der Europäischen Union (EU) inspirieren zu lassen, muss der Kongress nur nach Illinois schauen, dessen Datenschutzgesetz für biometrische Informationen (BIPA) verlangt, dass Unternehmen die Einwilligung der Personen einholen, bevor sie Gesichtsbilder und andere biometrische Daten erfassen. Clearview AI ist kämpft derzeit mehrere Klagen vor Bundes- und Staatsgerichten in Illinois, weil es versäumt wurde, die Zustimmung der Benutzer einzuholen. Diese Klagen heben einen beunruhigenden Aspekt der Gesichtserkennungstechnologie in den Vereinigten Staaten hervor: Die Privatsphäre, die bürgerlichen Freiheiten und die Rechte der Amerikaner an ihren biometrischen Daten variieren von Staat zu Staat und sogar innerhalb der Staaten und sind nicht durch Bundesgesetze geschützt.

Um dieses Problem zu lösen, könnte sich der Kongress auch an mehrere US-Verbündete wenden, darunter drei von ihnen Fünf Augen Partner für den Informationsaustausch. Im Jahr 2021 identifizierte der kanadische Datenschutzbeauftragte Clearview AI als ein Instrument zur Massenüberwachung und , erklärt es illegal, während Briten und australisch technische Daten Regulatoren bestraft Clearview AI und bestellt es löschen die Daten ihrer Bürger. In der EU vor kurzem Italien Geldstrafe Clearview 20 Millionen Euro, ordnete an, alle Daten zu löschen, die es von italienischen Bürgern gesammelt hatte, und untersagte Clearview AI, weitere Daten zu sammeln. Im vergangenen Jahr verhängte Schweden eine Geldstrafe gegen die Polizeibehörden, weil sie die Technologie von Clearview AI zur Identifizierung von Personen eingesetzt hatten, und a Anzahl Datenschutz, bürgerliche Freiheiten und Menschenrechtsgruppen reichten bei den Datenregulierungsbehörden in Frankreich, Österreich und Griechenland Beschwerden gegen das Unternehmen ein. Es überrascht nicht, dass im Mai 2021 sagte Clearview AI es hatte keine in der EU ansässigen Kunden.

Lesen Sie die ganze Geschichte hier…

Über den Autor

Patrick Wood
Patrick Wood ist ein führender und kritischer Experte für nachhaltige Entwicklung, grüne Wirtschaft, Agenda 21, Agenda 2030 und historische Technokratie. Er ist Autor von Technocracy Rising: Das trojanische Pferd der globalen Transformation (2015) und Co-Autor von Trilaterals Over Washington, Band I und II (1978-1980) mit dem verstorbenen Antony C. Sutton.
Abonnieren
Benachrichtigung von
Gast
9 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
Joe Boudreault

Dies ist ein völlig seltsamer Artikel. Hare hält Gesichtserkennung für eine Kriegswaffe? Wie verdammt paranoid kann man sein. Sie spuckt Unsinn aus. Die Fähigkeit, jedes menschliche Gesicht auf der Erde zu erkennen, ist ein großer Segen, egal wie man es betrachtet. Ich bin sehr froh, dass sogar mein Gesicht überall aus jeder Menge herausgepickt werden kann, selbst wenn ich eine Straße in Peking oder Moskau usw. hinuntergehe. ES SEI DENN, ICH HABE ETWAS ÜBER MEINE EINZIGARTIGE EXISTENZ ZU VERHEILEN! Hare muss neu bewerten, was unsere Gesichter sind: unsere äußere Persönlichkeit, die wir niemals versuchen sollten... Lesen Sie mehr »

CO2 ist Pflanzennahrung

Alles kann bewaffnet werden, und Sie wissen nicht mehr, was mit dem Bild Ihres Gesichts passiert. Mächte, die über die Herstellung billigerer, reichlicher und hochwertiger Waren für den Einzelhandel hinausgehen, sind eine Bedrohung.

Der kindliche Verstand kann das nicht sehen

Jennifer Powell

Glauben Sie ernsthaft, dass ein riesiges Netz von Gesichtserkennungen aufgebaut wurde, um vermisste Personen zu finden? Ich glaube, du bist sehr naiv. Die Welt funktioniert leider nicht so, wie du denkst.

Scully

Wenn es so wäre, gäbe es kein Verbrechen. 100% der Kriminellen würden gefasst.

Blöder Kommentar

Jeder hat etwas zu „verstecken“. Warum können Ihrer Meinung nach die Wohnungen von Google-Managern nicht auf Google Earth gefunden werden und ihre Adresse erscheint nicht in den Suchergebnissen, Ihre aber schon? Datenschutz für sie, aber nicht für uns. Leben ohne Privatsphäre ist GEFÄNGNIS.

[…] Weiterlesen: Wie Technokraten dein Gesicht in eine Waffe verwandelten […]

[…] Weiterlesen: Wie Technokraten dein Gesicht in eine Waffe verwandelten […]

[…] Wie Technokraten dein Gesicht in eine Kriegswaffe verwandelten […]