Billige Drohnen, KI, machen die Überwachung von Drohnen allgegenwärtig

Bitte teilen Sie diese Geschichte!
image_pdfimage_print
AI als Service für billige Drohnen bedeutet, dass jede Strafverfolgungsbehörde jetzt über eine eigene Drohnenflotte verfügt, mit der sie Bürger ausspionieren kann. Natürlich werden sie von Zeit zu Zeit Gesetzesbrecher fangen, aber die Rechte und die Privatsphäre unschuldiger Zivilisten werden mit Füßen getreten. ⁃ TN Editor

Erschwinglicher Verbrauchertechnologie hat die Überwachung billig gemacht und KI-Software hat sie automatisch gemacht.

Diese beiden Trends verschmolzen diese Woche beim Drohnenhersteller DJI PartnerschaftJuni 5 mit Axon, dem Unternehmen, das Taser-Waffen und Polizeikörperkameras herstellt, um Drohnen an lokale Polizeidienststellen in den USA zu verkaufen. Jetzt hat nicht nur die örtliche Polizei Zugang zu Drohnen, sondern das Filmmaterial dieser fliegenden Kameras wird automatisch von KI-Systemen analysiert, die der Öffentlichkeit nicht zugänglich sind.

Das Filmmaterial wird hochgeladen oder in Axons digitale Cloud für Polizeikameras wie die gestreamt Körperkameras Derzeit verkauft das Unternehmen, wo es von Axons KI analysiert und für alles genutzt werden kann, von Crowd Monitoring bis hin zu Suche und Rettung schreibt auf ihrer Website.

Das klingt vage, aber AI Forschung veröffentlicht Zwei Tage zuvor haben Wissenschaftler aus Indien und Großbritannien gezeigt, wie genau ein solches Drohnen-System eingesetzt werden kann. Das Papier mit dem Titel "Eye in the Sky" beschreibt, wie Drohnen-Material verwendet werden kann, um "gewalttätige Personen" in Echtzeit zu erkennen.

Um die KI zu trainieren, flogen die Forscher eine Drohne, um 2,000-Bilder von Menschen aufzunehmen, die so tun, als ob sie sich gegenseitig verletzt hätten. Aber da die Forscher keine echten Daten verwendeten und die von der KI analysierten Informationen sorgfältig aufbereiteten, um den Unterschied zwischen Gewalt und normaler menschlicher Bewegung zu erkennen, gibt es keine Garantie, dass dies in der realen Welt gut funktionieren würde, so David Sumpter, Autor von Unterdurchschnittlich: Erforschung der Algorithmen, die unser Leben steuern, schrieb auf Medium.

"Was der Algorithmus getan hat, ist, Menschen mit ihren Händen oder Beinen in der Luft als gewalttätig zu klassifizieren", schrieb Sumpter. Andere, wie Google Ethics Hawk Meredith Whittaker, twitterte dass die Forschung fehlerhaft war und dass "AI sich einer wachsenden ethischen Krise gegenübersieht".

Andere Forscher, darunter Google (pdf) und Facebookhaben auch umfangreiche Forschungen durchgeführt, um das gleiche Problem zu lösen, bei dem verfolgt wurde, wie sich Menschen bewegen und was diese Bewegungen möglicherweise anzeigen, dass sie es tun.

Aber die Forscher von „Eye in the Sky“ versuchen, bestimmte Posen mit Absichten in Verbindung zu bringen. Die Forscher diskutieren keine Fehlalarme für Handlungen, die als Gewalt missverstanden werden könnten, wie zum Beispiel Spielkämpfe, das Abschlagen einer Fliege von der Schulter oder das Ergreifen einer Person, die fällt.

Unabhängig von Fragen zur Legitimität der KI, The Verge Berichte dass die Forscher die Genehmigung erhalten haben, die Technologie während zweier Festivals in Indien im Oktober zu testen.

Mit $ 160 für a Papagei-Drohne So wie das Team von „Eye in the Sky“ und ein paar Cent für die Cloud-KI-Plattform von Amazon, hätte jeder mit einem codierenden Hintergrund ein ähnliches System entwickeln können. Sogar Teenager und Gurkenbauern bauen ihre eigenen KI-Systeme.

Lesen Sie die ganze Geschichte hier…

Treten Sie unserer Mailingliste bei!


Abonnieren
Benachrichtigung von
Gast
1 Wie
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen