Experten: Europäische Nationen sollten Social Credit Scoring verbieten

Europa
Bitte teilen Sie diese Geschichte!
Technokraten in der EU sind bestrebt, Menschen vollständig zu überwachen und zu kontrollieren, aber eine hochrangige, unabhängige Beratergruppe hat davor gewarnt, KI für die Massenüberwachung und die Bewertung sozialer Kredite einzusetzen. ⁃ TN Editor

Eine unabhängige Expertengruppe mit der Beratung des Europäische Kommission Um seine regulatorische Reaktion auf künstliche Intelligenz zu informieren - um das erklärte Ziel des EU-Gesetzgebers zu untermauern, sicherzustellen, dass die AI-Entwicklungen „human centric“ sind - hat er seine Strategie- und Investitionsempfehlungen veröffentlicht.

Dies folgt früheren ethischen Richtlinien für „vertrauenswürdige KI“, die von der hochrangigen Expertengruppe (HLEG) für KI wieder in Kraft gesetzt wurden April, als die Kommission die Teilnehmer aufforderte, den Entwurf der Regeln zu testen.

Die vollständigen politischen Empfehlungen der AI HLEG umfassen ein sehr detailliertes Dokument auf der 50-Seite, das hier heruntergeladen werden kann Web-Seitedem „Vermischten Geschmack“. Seine Gruppe, die im Juni 2018 gegründet wurde, besteht aus Eine Mischung aus Branchenkennern, Vertretern der Zivilgesellschaft, politischen Beratern und Politikern, Wissenschaftlern und Rechtsexperten.

Das Dokument enthält Warnhinweise zum Einsatz von KI zur Massenüberwachung und Bewertung von EU-Bürgern, wie z Chinas soziales Kreditsystem, mit der Forderung der Gruppe nach einem völligen Verbot des "AI-fähigen Mass Scale Scoring von Individuen". Sie fordert die Regierungen außerdem nachdrücklich auf, sich zu verpflichten, keine pauschale Überwachung der Bevölkerung zu Zwecken der nationalen Sicherheit vorzunehmen. (Vielleicht ist es auch gut, dass Großbritannien für den Austritt aus der EU gestimmt hat schwankende staatliche Überwachungsbefugnisse es ist am Ende von 2016 in das Gesetz übergegangen.)

"Während die Regierungen möglicherweise stark versucht sind, die Gesellschaft durch den Aufbau eines umfassenden Überwachungssystems auf der Grundlage von KI-Systemen zu sichern, wäre dies äußerst gefährlich, wenn es auf ein extremes Niveau getrieben würde", schreibt der HLEG. "Regierungen sollten sich verpflichten, sich nicht an der Massenüberwachung von Personen zu beteiligen und nur vertrauenswürdige KI-Systeme einzusetzen und zu beschaffen, die so konzipiert sind, dass sie das Gesetz und die Grundrechte respektieren, mit ethischen Grundsätzen in Einklang stehen und sozio-technisch robust sind."

Die Gruppe ruft auch dazu auf, der kommerziellen Überwachung von Einzelpersonen und Gesellschaften entgegenzuwirken. Die Reaktion der EU auf die Potenz und das Potenzial des Missbrauchs von KI-Technologien sollte unter anderem sicherstellen, dass die Verfolgung von Personen im Internet „strikt im Einklang mit den Grundrechten wie der Privatsphäre steht“ ”, Einschließlich (die Gruppe gibt an), wenn es sich um„ kostenlose “Dienste handelt (allerdings mit einer leichten Einschränkung der Notwendigkeit, die Auswirkungen von Geschäftsmodellen zu berücksichtigen).

Letzte Woche hat der britische Datenschutzbeauftragte einen noch genaueren Versuch unternommen, die Branche für Online-Verhaltensanzeigen zu überraschen. Er warnte davor, dass adtech die personenbezogenen Daten von Webnutzern in großem Maßstab für die Ausrichtung von Anzeigen verarbeitet entspricht nicht den EU-Datenschutzstandards. Der Branche wurde mitgeteilt, dass sich ihre Verhaltensweisen bei Rechtsverletzungen ändern müssen, auch wenn das Information Commissioner's Office den Hammer noch nicht fallen lässt. Aber die Reformwarnung war klar.

Während die politischen Entscheidungsträger der EU daran arbeiten, einen Rechtsrahmen für die Einhaltung von Rechten für KI zu schaffen, um die nächsten zehn Jahre der neuesten technologischen Entwicklungen in der Region zu steuern, wird die breitere Aufmerksamkeit und Kontrolle, die auf digitale Praktiken und Geschäftsmodelle gerichtet sein wird, voraussichtlich voranschreiten eine Bereinigung problematischer digitaler Praktiken, die sich bisher ohne oder mit sehr geringer Berührungsregulierung vermehren konnten.

Das HLEG fordert auch Unterstützung für die Entwicklung von Mechanismen zum Schutz personenbezogener Daten und für die "Kontrolle und Befugnisübertragung von Personen durch ihre Daten" - was ihrer Meinung nach "einige Aspekte der Anforderungen an eine vertrauenswürdige KI" ansprechen würde.

"Es sollten Tools entwickelt werden, die eine technologische Implementierung der DSGVO ermöglichen und die Wahrung der Privatsphäre / Privatsphäre durch technische Entwurfsmethoden zur Erklärung der Kriterien und der Kausalität bei der Verarbeitung personenbezogener Daten von KI-Systemen (z. B. föderiertes maschinelles Lernen) fördern", schreiben sie.

„Unterstützung der technologischen Entwicklung von Anonymisierungs- und Verschlüsselungstechniken und Entwicklung von Standards für den sicheren Datenaustausch auf der Grundlage der Kontrolle personenbezogener Daten. Förderung der Aufklärung der Öffentlichkeit über das Management personenbezogener Daten, einschließlich des Bewusstseins und der Einflussnahme von Personen auf Entscheidungsprozesse, die auf personenbezogenen Daten beruhen. Erstellen Sie Technologielösungen, um Einzelpersonen Informationen und Kontrolle darüber zu geben, wie ihre Daten verwendet werden, zum Beispiel für Forschungszwecke, zum Einverständnismanagement und zur Transparenz über europäische Grenzen hinweg sowie zu den daraus resultierenden Verbesserungen und Ergebnissen, und entwickeln Sie Sicherheitsstandards Datenaustausch auf der Grundlage der Kontrolle personenbezogener Daten. “

Lesen Sie die ganze Geschichte hier…

Abonnieren
Benachrichtigung von
Gast

1 Kommentar
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen