Eine Einschränkung, die ich einbringen muss, ist, dass der Lernprozess der KI buchstäblich alles im Internet verbraucht, das einen hohen Prozentsatz an aufgeweckten/voreingenommenen Informationen enthält. Das Lernen aus erwachten Geschichten, Büchern, Videos usw. kann ausreichen, um zu einer erwachten KI zu führen. Dennoch wäre es möglich, die gezogenen Schlussfolgerungen programmatisch zu entzerren, aber es wurden keine Anstrengungen unternommen, dies zu tun. ⁃ TN-Editor
Was tun, wenn Entscheidungen, die früher von Menschen getroffen wurden, mit all ihren Vorurteilen nun von Algorithmen getroffen werden, die mathematisch nicht in der Lage sind, voreingenommen zu sein? Wenn Sie rational sind, sollten Sie feiern. Wenn Sie ein militanter Liberaler sind, erkennen Sie diese Entwicklung als tödliche Bedrohung und bemühen sich, die Kontrolle zurückzugewinnen.
Sie können dies auf KI-Konferenzen beobachten. Letzte Woche habe ich an der NeurIPS-Ausgabe 2020 teilgenommen, der führenden internationalen Konferenz für maschinelles Lernen. Was als kleine Versammlung begann, bringt heute genug Menschen zusammen, um eine Sportarena zu füllen. In diesem Jahr erstmals NeuroIPS forderten, dass die meisten Papiere eine Erklärung zu „weiterreichenden Auswirkungen“ enthalten und von einem Ethikausschuss überprüft werden mussten. Jedes Papier, das zum Beispiel beschreibt, wie man einen Algorithmus beschleunigt, muss jetzt einen Abschnitt über die sozialen Vor- und Nachteile dieses obskuren technischen Fortschritts haben. „Ungeachtet der wissenschaftlichen Qualität oder des Beitrags“, heißt es in der Aufforderung zur Einreichung von Beiträgen, „kann eine Einreichung abgelehnt werden für … einschließlich Methoden, Anwendungen oder Daten, die eine unfaire Voreingenommenheit erzeugen oder verstärken.“
Dies war nur die letzte Wendung der Ratsche. Frühere beinhalteten die Umbenennung der Konferenz in etwas politisch Korrekteres und die Aufforderung an die Teilnehmer, einen umfassenden „Verhaltenskodex“ ausdrücklich zu akzeptieren, bevor sie sich registrieren können, was es der Konferenz ermöglicht, Teilnehmer rauszuwerfen, wenn sie etwas in sozialen Medien veröffentlichen, das von den Beamten missbilligt wird. Ernsthafter ist, dass ein ganzes Teilgebiet der KI mit dem ausdrücklichen Zweck entstanden ist, unter anderem Algorithmen zu „entzerren“. Das ist jetzt in vollem Gange.
Ich habe ein paar Tweets gepostet, in denen Fragen zu den neuesten Änderungen aufgeworfen wurden – und der Cancel-Mob kam über mich. Beleidigungen, Verspottungen, Drohungen – was auch immer. Sie würden denken, dass Wissenschaftler über solche Verhaltensweisen stehen würden, aber nein. Ich wies darauf hin, dass NeurIPS ein Ausreißer ist, wenn es darum geht, breitere Wirkungserklärungen zu verlangen, und die Annullierer haben wiederholt das Thema gewechselt. Ich habe gegen die Politisierung der KI argumentiert, aber sie haben das als Leugnung angesehen, dass jegliche ethischen Erwägungen gültig sind. Ein Unternehmensleiter für maschinelle Lernforschung, auch ein Caltech-Professor, veröffentlichte auf Twitter eine lange Liste von Personen, die abgesagt werden sollten, deren einziges Verbrechen darin bestand, mir zu folgen oder einen meiner Tweets zu mögen. Der gleichen Menge gelang es, meine Universität dazu zu bringen, eine Erklärung abzugeben, in der sie meine Ansichten verleugnete und ihre liberalen Referenzen bekräftigte.
Warum die Aufregung? Daten können natürlich voreingenommen sein, ebenso wie Datenwissenschaftler. Und von Menschen codierte Algorithmen können im Prinzip alles tun, was wir ihnen sagen. Aber maschinelle Lernalgorithmen, wie so ziemlich alle Algorithmen, die man in Lehrbüchern der Informatik findet, sind im Wesentlichen nur komplexe mathematische Formeln, die nichts über Rasse, Geschlecht oder sozioökonomischen Status wissen. Sie können genauso wenig rassistisch oder sexistisch sein wie die Formel y = ax + b.
Daniel Kahnemans Bestseller, Denken, Fast and Slow, hat ein ganzes Kapitel darüber, wie Algorithmen objektiver sind als Menschen und daher bessere Entscheidungen treffen. Für den militanten liberalen Geist sind sie jedoch Senkgruben der Ungerechtigkeit und müssen gereinigt werden.
Was die Bereinigung von Algorithmen in der Praxis bedeutet, ist das Einfügen von Vorurteilen zugunsten bestimmter Gruppen, wodurch in automatisierter Form die soziale Kontrolle wiederhergestellt wird, auf die die politische Linke so bedacht ist. „Debiasing“ bedeutet mit anderen Worten, Voreingenommenheit hinzuzufügen. Es überrascht nicht, dass dies dazu führt, dass die Algorithmen bei ihrer beabsichtigten Funktion schlechter abschneiden. Kreditkarten-Scoring-Algorithmen können qualifiziertere Bewerber ablehnen, um sicherzustellen, dass die gleiche Anzahl von Frauen und Männern akzeptiert wird. Algorithmen zur Bewährungsberatung können empfehlen, mehr gefährliche Kriminelle freizulassen, um eine proportionale Anzahl von Weißen und Schwarzen freizulassen. Einige befürworten sogar das Verbot der Verwendung aller Variablen in Algorithmen, die mit Rasse oder Geschlecht korrelieren, mit der Begründung, dass sie auf Redlining hinauslaufen. Dies würde maschinelles Lernen und all seine Vorteile nicht nur im Wesentlichen unmöglich machen, sondern ist besonders ironisch, da diese Variablen genau das sind, was wir brauchen, um Entscheidungen von denen zu trennen, die wir ausschließen möchten.
Wenn Sie diese oder eine andere der vielen liberalen Forderungen an die KI in Frage stellen, wird Ihnen viel Kummer bevorstehen. Je prominenter der abgesagte Forscher ist, desto besser, denn er sendet die abschreckendste Botschaft an alle anderen, insbesondere an Nachwuchswissenschaftler. Jeff Dean, Googles legendärer KI-Chef, und Yann LeCun, Facebooks leitender KI-Wissenschaftler und Mitbegründer von Deep Learning, haben beides fanden sich auf der Empfängerseite des Unmuts der liberalen Truppe.
Die Konservativen haben den zunehmenden Eingriff der progressiven Politik in die KI bisher weitgehend ignoriert. Wenn KI noch ein obskures und unausgereiftes Feld wäre, wäre das vielleicht in Ordnung, aber die Zeit dafür ist längst vorbei. Algorithmen bestimmen zunehmend unser Leben, und sie können eine militant liberale (in Wirklichkeit illiberale) Gesellschaft durch die Hintertür durchsetzen. Jedes Mal, wenn Sie eine Websuche durchführen, soziale Medien nutzen oder Empfehlungen von Amazon oder Netflix erhalten, wählen Algorithmen aus, was Sie sehen. Algorithmen helfen bei der Auswahl von Jobkandidaten, Wählern, die in politischen Kampagnen angesprochen werden sollen, und sogar von Personen, die bereits auf dem Laufenden sind. Unternehmen und Gesetzgeber müssen sicherstellen, dass sie nicht manipuliert werden. Und wir alle müssen wissen, was passiert, damit wir mitreden können. Ich jedenfalls habe, nachdem ich gesehen habe, wie Progressive Vorurteile sogar Algorithmen zuordnen, die offensichtlich keine haben können, begonnen, die orthodoxe Sichtweise menschlicher Vorurteile in Frage zu stellen. Sind wir wirklich so zutiefst und unwiderruflich rassistisch und sexistisch, wie sie behaupten? Ich denke nicht.
Pedro Domingos ist emeritierter Professor für Informatik und Ingenieurwesen an der University of Washington.
[…] Originalartikel lesen […]
Meiner Einschätzung nach wird es nach dem Abschalten des Internets (bald) mit GPT und Bard usw. neu gestartet. al., als unsere neuen und einzigen Suchmaschinenoptionen. Das heißt, wir werden mit allem gefüttert, was sie uns wissen lassen wollen, und nur mit dem, was sie uns wissen lassen wollen. Vorbei ist „Sie können sich jetzt frei in der Kabine bewegen“. Pfui. Merk dir das? „Wenn Sie Google verwenden, erhalten Sie mehr als eine Antwort? Natürlich tust du. Nun, das ist ein Fehler. Wir haben mehr Bugs pro Sekunde auf der Welt. Wir sollten Ihnen die richtige Antwort geben können... Lesen Sie mehr »
Ich liebe diese Aussage, „Algorithmen, die mathematisch unvoreingenommen sind“. Algorithmen sind Codes, die Tech-Bibliotheken erstellen. Natürlich sind sie in der Lage, voreingenommen zu sein. Ich würde noch einen Schritt weiter gehen und sagen, dass der gesamte Zweck von KI und Algorithmen im Allgemeinen darin besteht, dass ihre Schöpfer uns zu ihrer einzigen Regel, einer einzigen Ansicht und einer profitablen, akzeptablen Antwort lenken. Beim Einkaufen werden sie unser Geld offensichtlich dahin lenken, wo sie es haben wollen. Sie würden für all das keine Milliarden ausgeben, es sei denn, sie erhalten eine Geldprämie. Wenn die KIs wirklich unvoreingenommen wären, nichts davon... Lesen Sie mehr »
[…] Militante Liberale politisieren […]