Yoshua Bengio, ein kanadischer Informatiker, der Pionierarbeit bei den Techniken geleistet hat, die einen Großteil der derzeitigen Aufregung um künstliche Intelligenz ausmachen, ist besorgt darüber, dass China KI zur Überwachung und politischen Kontrolle einsetzt.
Bengio, der auch Mitbegründer des in Montreal ansässigen AI-Softwareunternehmens Element AI ist, sagte, er sei besorgt über die Technologie, die er entwickelt habe, um das Verhalten der Menschen zu kontrollieren und ihren Geist zu beeinflussen.
"Dies ist das Big Brother-Szenario von 1984", sagte er in einem Interview. "Ich denke, es wird immer beängstigender."
Bengio, Professor an der Universität von Montreal, gilt neben Yann LeCun und Geoff Hinton als einer der drei „Paten“ des tiefen Lernens. Es ist eine Technologie, die neuronale Netze verwendet - eine Art Software, die lose auf Aspekten des menschlichen Gehirns basiert -, um Vorhersagen auf der Grundlage von Daten zu treffen. Es ist verantwortlich für die jüngsten Fortschritte bei der Gesichtserkennung, der Verarbeitung natürlicher Sprache, der Übersetzung und den Empfehlungsalgorithmen.
Deep Learning erfordert eine große Datenmenge, um Beispiele für das Lernen zu liefern - aber China mit seiner riesigen Bevölkerung und seinem System staatlicher Aufzeichnungen verfügt über eine Menge davon.
Die chinesische Regierung hat damit begonnen, Videoüberwachungskameras und Gesichtserkennung einzusetzen, um zu überwachen, was ihre Bürger in der Öffentlichkeit tun, vom Jaywalking bis zum politischen Dissens. Es wurde auch eine nationale Plattform für den Austausch von Kreditinformationen geschaffen, die dazu dient, Bahn- und Fluggäste für „unsoziales“ Verhalten auf die schwarze Liste zu setzen, und erwägt, die Verwendung dieses Systems auf andere Situationen auszudehnen.
"Die Verwendung Ihres Gesichts, um Sie zu verfolgen, sollte stark reguliert werden", sagte Bengio.
Bengio ist nicht allein in seiner Sorge um Chinas Anwendungsfälle für KI. Der Milliardär George Soros hat kürzlich auf dem World Economic Forum am 24 eine Rede gehalten, um die Risiken hervorzuheben, die der Einsatz von KI für die bürgerlichen Freiheiten und die Rechte von Minderheiten mit sich bringt.
Im Gegensatz zu einigen Kollegen hat Bengio, der das Montreal Institute for Learning Algorithms (Mila) leitet, der Versuchung widerstanden, für ein großes werbebasiertes Technologieunternehmen zu arbeiten. Er sagte, dass die verantwortungsvolle Entwicklung von KI einige große Technologieunternehmen dazu zwingen könnte, ihre Arbeitsweise zu ändern.
Die Datenmenge, die große Technologieunternehmen kontrollieren, ist ebenfalls ein Problem. Er sagte, dass die Schaffung von Datenvertrauensstellungen - gemeinnützige Organisationen oder rechtliche Rahmenbedingungen, unter denen Personen ihre Daten besitzen und nur für bestimmte Zwecke verwenden dürfen - eine Lösung sein könnte. Wenn ein Trust über genügend Daten verfügt, könnte es bessere Bedingungen mit großen Technologieunternehmen aushandeln, die diese benötigen, sagte er am Donnerstag während eines Gesprächs im Büro von Amnesty International UK in London.