Facebook stellt ein spezielles Ethik-Team zusammen, um die Abweichungen in der AI-Software zu untersuchen

Bitte teilen Sie diese Geschichte!
image_pdfimage_print
KI-Programme erben die Vorurteile ihrer Schöpfer. So enthalten die Zensurprogramme, die Facebook erstellt hat, bereits die Keime des technokratischen Denkens und der Ethik. Können dieselben Leute ihre eigenen Kreationen untersuchen? ⁃ TN Editor

Mehr denn je, Facebook muss nachweisen, dass seine Algorithmen verantwortungsbewusst eingesetzt werden.

Am Mittwoch gab das Unternehmen auf seiner F8-Entwicklerkonferenz bekannt, dass es ein spezielles Team gebildet und eigenständige Software entwickelt hat, um sicherzustellen, dass seine Systeme für künstliche Intelligenz Entscheidungen so ethisch wie möglich und ohne Vorurteile treffen.

Gefällt mir "bei Facebook andere große Tech-Unternehmen mit Produkten, die von großen und unterschiedlichen Personengruppen verwendet werden, ist tiefer einbeziehen AI in seine Dienste. Facebook teilte diese Woche mit, es werde angeboten, Nachrichten zu übersetzen, die Menschen über die Messenger-App erhalten. Übersetzungssysteme müssen zuerst auf Daten geschult werden, und der ethische Druck könnte dazu beitragen, dass Facebooks Systeme gelehrt werden, faire Übersetzungen zu liefern.

"Wir werden zurückblicken und sagen:" Es ist fantastisch, dass wir diese Fragen proaktiv beantworten und verstehen konnten, bevor wir Dinge auf den Markt bringen, die für ein bestimmtes Produkt für eine demografische Gruppe fair sind ", so Isabel Kloumann , ein Forscher bei Facebook, sagte CNBC. Sie lehnte es ab zu sagen, wie viele Leute im Team sind.

Facebook sagte, dass diese Bemühungen nicht das Ergebnis von Änderungen sind, die in den sieben Wochen stattgefunden haben, seit bekannt wurde, dass Data Analytics-Unternehmen Cambridge Analytik missbrauchte personenbezogene Daten der Nutzer des sozialen Netzwerks vor der 2016-Wahl. Aber es ist klar, dass die öffentliche Stimmung gegenüber Facebook in letzter Zeit dramatisch negativ geworden ist, so sehr, dass der CEO Mark Zuckerberg musste letzten Monat stundenlang im Kongress verhören.

Jede Ankündigung steht jetzt unter dem Mikroskop.

Facebook hat aufgehört, ein Forum zu gründen, das sich auf die KI-Ethik konzentriert Axon (früher Taser) hat letzte Woche. Diese Schritte entsprechen jedoch einer breiteren Anerkennung der Branche, dass KI-Forscher daran arbeiten müssen, ihre Systeme inklusiv zu gestalten. Die DeepMind AI-Gruppe von Alphabet bildete eine Ethik- und Gesellschaftsteam vergangenes Jahr. Davor, Microsoft's Die Forschungsorganisation richtete eine Gruppe für Fairness Accountability Transparency and Ethics ein.

Das Gebiet der KI hat einige Peinlichkeiten, wie vor drei Jahren, als Google Photos entdeckt wurde schwarze Menschen als Gorillas zu kategorisieren.

Letztes Jahr hat das Kloumann-Team eine Software namens Fairness Flow entwickelt, die seitdem in die weit verbreitete Facebook-Version integriert wurde FBLearner Flow Interne Software für ein einfacheres Training und Ausführen von KI-Systemen. Die Software analysiert die Daten unter Berücksichtigung ihres Formats und erstellt dann einen Bericht, der sie zusammenfasst.

Kloumann sagte, sie arbeite seit ihrem Einstieg bei Facebook in 2016 am Thema Fairness, als die Leute in der Technologiebranche offener darüber sprachen und gesellschaftliche Bedenken über die Macht der KI aufkamen.

Lesen Sie die ganze Geschichte hier…

Treten Sie unserer Mailingliste bei!


Abonnieren
Benachrichtigung von
Gast
0 Kommentare
Inline-Feedbacks
Alle Kommentare anzeigen