Facebook stellt ein spezielles Ethik-Team zusammen, um die Abweichungen in der AI-Software zu untersuchen

Bitte teilen Sie diese Geschichte!
KI-Programme erben die Vorurteile ihrer Schöpfer. So enthalten die Zensurprogramme, die Facebook erstellt hat, bereits die Keime des technokratischen Denkens und der Ethik. Können dieselben Leute ihre eigenen Kreationen untersuchen? ⁃ TN Editor

Mehr denn je, Facebook muss nachweisen, dass seine Algorithmen verantwortungsbewusst eingesetzt werden.

Am Mittwoch gab das Unternehmen auf seiner F8-Entwicklerkonferenz bekannt, dass es ein spezielles Team gebildet und eigenständige Software entwickelt hat, um sicherzustellen, dass seine Systeme für künstliche Intelligenz Entscheidungen so ethisch wie möglich und ohne Vorurteile treffen.

Gefällt mir "bei Facebook andere große Tech-Unternehmen mit Produkten, die von großen und unterschiedlichen Personengruppen verwendet werden, ist tiefer einbeziehen KI in seine Dienste. Facebook hat diese Woche angekündigt, Nachrichten zu übersetzen, die über die Messenger-App empfangen werden. Übersetzungssysteme müssen zuerst auf Daten geschult werden, und der Ethik-Push könnte dazu beitragen, dass die Facebook-Systeme für faire Übersetzungen unterrichtet werden.

 "Wir werden zurückblicken und sagen:" Es ist fantastisch, dass wir diese Fragen proaktiv bewältigen und verstehen konnten, bevor wir Dinge auf den Markt bringen, die für ein bestimmtes Produkt für eine demografische Gruppe fair sind ", so Isabel Kloumann , ein Wissenschaftler bei Facebook, sagte gegenüber CNBC. Sie lehnte es ab zu sagen, wie viele Leute im Team sind.

Facebook sagte, dass diese Bemühungen nicht das Ergebnis von Änderungen sind, die in den sieben Wochen stattgefunden haben, seit bekannt wurde, dass Data Analytics-Unternehmen Cambridge Analytik Missbrauch personenbezogener Daten der Nutzer des sozialen Netzwerks vor den Wahlen 2016. Aber es ist klar, dass die öffentliche Meinung gegenüber Facebook in letzter Zeit dramatisch negativ geworden ist, so sehr, dass der CEO Mark Zuckerberg musste letzten Monat stundenlang im Kongress verhören.

Jede Ankündigung steht jetzt unter dem Mikroskop.

Facebook hat aufgehört, ein Forum zu gründen, das sich auf die KI-Ethik konzentriert Axon (früher Taser) hat letzte Woche. Die Schritte stimmen jedoch mit einer breiteren Anerkennung der Branche überein, dass KI-Forscher daran arbeiten müssen, ihre Systeme inklusiv zu gestalten. Die DeepMind AI-Gruppe von Alphabet bildete eine Ethik- und Gesellschaftsteam vergangenes Jahr. Davor, Microsoft's Die Forschungsorganisation richtete eine Gruppe für Fairness Accountability Transparency and Ethics ein.

Das Gebiet der KI hat einige Peinlichkeiten, wie vor drei Jahren, als Google Photos entdeckt wurde schwarze Menschen als Gorillas zu kategorisieren.

Im vergangenen Jahr hat das Team von Kloumann eine Software namens Fairness Flow entwickelt, die inzwischen in die weit verbreitete Software von Facebook integriert wurde FBLearner Flow Interne Software für ein einfacheres Training und Ausführen von KI-Systemen. Die Software analysiert die Daten unter Berücksichtigung ihres Formats und erstellt dann einen Bericht, der sie zusammenfasst.

Kloumann sagte, sie arbeite seit ihrem Beitritt zu Facebook im Jahr 2016 am Thema Fairness, als die Leute in der Technologiebranche offener darüber sprachen und als gesellschaftliche Bedenken hinsichtlich der Macht der KI auftauchten.

Lesen Sie die ganze Geschichte hier…

 

Abonnieren
Benachrichtigung von
Gast

0 Kommentare
Inline-Feedbacks
Alle Kommentare anzeigen