Diese Woche Vox und andere Verkaufsstellen berichtet dass Googles neu geschaffene KI-Ethikkommission in Kontroversen über mehrere der Vorstandsmitglieder auseinanderfiel.
Nun, es ist offiziell geschafft auseinanderzufallen - es wurde abgesagt. Google sagte Vox am Donnerstag, dass es den Stecker auf der Ethik-Tafel zieht.
Das Board überlebte kaum mehr als eine Woche. Es wurde gegründet, um die „verantwortungsbewusste Entwicklung von KI“ bei Google zu leiten. Es hatte acht Mitglieder und traf sich im Laufe von 2019 viermal, um Bedenken hinsichtlich des KI-Programms von Google zu berücksichtigen. Zu diesen Bedenken gehört, wie KI autoritäre Staaten befähigen kann, wie KI-Algorithmen unterschiedliche Ergebnisse liefern, ob an militärischen KI-Anwendungen gearbeitet werden soll und vieles mehr. Aber es gab von Anfang an Probleme.
Tausende von Google-Mitarbeitern haben einen Vertrag unterschrieben Petition, in der die Entfernung gefordert wird eines Vorstandsmitglieds, Kay Coles James, Präsident der Heritage Foundation, über ihre Kommentare zu Trans-Menschen und die Skepsis ihrer Organisation gegenüber dem Klimawandel. In der Zwischenzeit wurden durch die Einbeziehung des CEO der Drohnenfirma Dyan Gibbens alte Divisionen in der Firma über das Jahr 2007 wiedereröffnet Nutzung der KI des Unternehmens für militärische Anwendungen.
Vorstandsmitglied Alessandro Acquisti zurückgetreten. Ein anderes Mitglied, Joanna Bryson, verteidigte ihre Entscheidung, nicht zurückzutreten, behauptet von James"Ob Sie es glauben oder nicht, ich weiß noch Schlimmeres über eine der anderen Personen." Andere Vorstandsmitglieder fanden sich wieder überflutet mit der Bitte, ihre Entscheidung zu rechtfertigen, im Vorstand zu bleiben.
Am Donnerstagnachmittag teilte ein Google-Sprecher Vox mit, dass das Unternehmen beschlossen habe, das Panel, das als Advanced Technology External Advisory Council (ATEAC) bezeichnet wird, vollständig aufzulösen. Hier ist die vollständige Erklärung des Unternehmens:
Es ist klar geworden, dass ATEAC in der gegenwärtigen Umgebung nicht so funktionieren kann, wie wir es wollten. Also beenden wir den Rat und kehren zum Zeichenbrett zurück. Wir werden weiterhin die Verantwortung für die von AI angesprochenen wichtigen Themen übernehmen und verschiedene Wege finden, um externe Meinungen zu diesen Themen einzuholen.
Das Panel sollte der laufenden KI-Ethik-Arbeit von Google-Ingenieuren Perspektiven von außen hinzufügen, die alle fortgesetzt werden. Die Streichung des Boards ist hoffentlich kein Rückzug aus Googles KI-Ethik-Arbeit, sondern eine Gelegenheit, darüber nachzudenken, wie man externe Stakeholder konstruktiver einbeziehen kann.
Das Board wurde zu einer riesigen Verantwortung für Google
Die Glaubwürdigkeit des Boards wurde zum ersten Mal beeinträchtigt, als Alessandro Acquisti, ein Datenschutzforscher, kündigte auf Twitter dass er zurücktrat und argumentierte: "Während ich mich der Forschung widme, die sich mit wichtigen ethischen Fragen der Fairness, Rechte und Einbeziehung in die KI auseinandersetzt, glaube ich nicht, dass dies das richtige Forum für mich ist, um mich an dieser wichtigen Arbeit zu beteiligen."
Inzwischen hat die Petition zur Entfernung von Kay Coles James hat bisher mehr als 2,300-Signaturen von Google-Mitarbeitern angezogen und zeigte keine Anzeichen von Dampfverlust.
Als die Wut über das Board zunahm, wurden die Boardmitglieder in längere ethische Debatten darüber verwickelt, warum sie im Board waren, was nicht das gewesen sein kann, was Google sich erhofft hatte. Auf Facebook äußerte sich Vorstandsmitglied Luciano Floridi, ein Philosoph der Ethik in Oxford, wie folgt:
Es war ein schwerwiegender Fehler, [Kay Coles James] um Rat zu bitten, und er hat die falsche Botschaft über die Art und die Ziele des gesamten ATEAC-Projekts übermittelt. Aus ethischer Sicht hat Google falsch eingeschätzt, was es bedeutet, repräsentative Ansichten in einem breiteren Kontext zu vertreten. Wenn Frau Coles James nicht zurücktritt, wie ich hoffe, und wenn Google sie nicht entfernt (https://medium.com/…/googlers-against-transphobia-and-hate-…), wie ich persönlich empfohlen habe, lautet die Frage: Wie ist die richtige moralische Haltung angesichts dieses gravierenden Fehlers?
Am Ende entschied er sich, im Panel zu bleiben, aber das war nicht die Art von ethischer Debatte, die Google auslösen wollte - und es wurde schwer vorstellbar, dass die beiden zusammenarbeiten würden.
Das war nicht das einzige Problem. ich vor einem Tag gestritten Abgesehen von dieser Empörung war das Board nicht gut für den Erfolg aufgestellt. KI-Ethik-Boards wie Google, die im Silicon Valley in Mode sind, scheinen größtenteils nicht in der Lage zu sein, schwierige Fragen zu ethischen KI-Fortschritten zu lösen oder sogar Fortschritte zu erzielen.
Eine Rolle in Googles AI-Vorstand war eine unbezahlte, zahnlose Position, die es unmöglich macht, in vier Meetings im Laufe eines Jahres ein klares Verständnis für alles zu erlangen, was Google tut, geschweige denn eine differenzierte Anleitung zu geben. Es gibt dringende ethische Fragen zu der KI-Arbeit, die Google leistet - und keinen wirklichen Weg, mit dem das Board diese zufriedenstellend angehen könnte. Von Anfang an war es schlecht für das Ziel ausgelegt.
Jetzt wurde es abgesagt.