Berater der britischen KI-Task Force: Noch zwei Jahre bis zur Eindämmung, sonst

Wikimedia Commons, mikemacmarketing
Bitte teilen Sie diese Geschichte!
Die Menschheit steht vor zwei Problemen, die mit diesen Worten beschrieben werden. „tief“ und „breit“. Die weit verbreitete Akzeptanz aktueller Modelle bedeutet, dass aktuelle Modelle überall sind. Während sich die Fähigkeiten vertiefen, werden diese Verbesserungen nahtlos und sofort auf alle Installationen auf der Welt übertragen. Open AI hat versprochen, die Veröffentlichung neuer Veröffentlichungen zu verlangsamen, aber andere KI-Unternehmen treiben mit Hochdruck voran.

Das Entwicklungstempo nimmt mit der Lerngeschwindigkeit zu, sodass neue Versionen viel schneller auf den Markt kommen können. Der Gesamteffekt bewegt sich in Richtung einer Fluchtgeschwindigkeit zur Regulierung und Kontrolle. Wenn Regulierungsbehörden nicht verstehen können, was wie reguliert werden muss, sind sie nutzlos. Darüber hinaus geben KI-Programmierer selbst zu, dass sie nicht verstehen, wie ihre KI zu Schlussfolgerungen gelangt.

AGI ist nicht die größte Bedrohung; Vielmehr ist die Bereitschaft des Menschen, einem leblosen, seelenlosen Algorithmus zu gehorchen, das Problem. ⁃ TN-Editor

Der Berater der KI-Task Force des britischen Premierministers sagte, dass große KI-Modelle in den nächsten zwei Jahren einer Regulierung und Kontrolle bedürfen, um große existenzielle Risiken einzudämmen.

Der Berater der Task Force für künstliche Intelligenz (KI) des Premierministers des Vereinigten Königreichs sagte, dass die Menschen etwa zwei Jahre Zeit haben, die KI zu kontrollieren und zu regulieren, bevor sie zu mächtig wird.

In einem Interview Mit einem lokalen britischen Medienunternehmen betonte Matt Clifford, der auch Vorsitzender der Advanced Research and Invention Agency (ARIA) der Regierung ist, dass aktuelle Systeme „immer leistungsfähiger und immer schneller“ werden.

Er sagte weiterhin, dass die Systeme in zwei Jahren „sehr leistungsfähig“ sein werden, wenn die Behörden jetzt nicht über Sicherheit und Vorschriften nachdenken.

„Wir haben zwei Jahre Zeit, um einen Rahmen zu schaffen, der sowohl die Steuerung als auch die Regulierung dieser sehr großen Modelle viel besser ermöglicht als heute.“

Clifford warnte davor, dass es in Bezug auf KI sowohl kurz- als auch langfristig „viele verschiedene Arten von Risiken“ gebe, was er als „ziemlich beängstigend“ bezeichnete.

Das Interview erfolgte im Anschluss an einen kürzlich veröffentlichten offenen Brief veröffentlicht vom Center for AI Safety, unterzeichnet von 350 KI-Experten, darunter OpenAI-CEO Sam Altman, besagte, dass KI als existenzielle Bedrohung behandelt werden sollte, ähnlich der, die von Atomwaffen und Pandemien ausgeht.

„Sie reden darüber, was passiert, wenn wir tatsächlich eine neue Spezies erschaffen, eine Art Intelligenz, die größer ist als die des Menschen.“

Der Berater der KI-Task Force sagte, dass diese von der KI ausgehenden Bedrohungen „sehr gefährlich“ sein könnten und „viele Menschen töten könnten, nicht alle Menschen, einfach von dort aus, wo wir Modelle in zwei Jahren erwarten würden.“

Laut Clifford sollte das Hauptaugenmerk von Regulierungsbehörden und Entwicklern darauf liegen, zu verstehen, wie die Modelle gesteuert werden können, und dann die Vorschriften auf globaler Ebene umzusetzen.

Im Moment sagte er, seine größte Angst sei das mangelnde Verständnis dafür, warum sich KI-Modelle so verhalten, wie sie es tun.

„Die Leute, die die leistungsfähigsten Systeme entwickeln, geben offen zu, dass sie nicht genau verstehen, wie [KI-Systeme] die Verhaltensweisen zeigen, die sie zeigen.“

Clifford betonte, dass viele Führungskräfte von Organisationen, die KI entwickeln, auch darin übereinstimmen, dass leistungsstarke KI-Modelle vor der Bereitstellung einer Art Prüfungs- und Bewertungsprozess unterzogen werden müssen.

Derzeit bemühen sich Regulierungsbehörden weltweit darum, die Technologie und ihre Auswirkungen zu verstehen und gleichzeitig Vorschriften zu schaffen, die Benutzer schützen und dennoch Innovationen ermöglichen.

Am 5. Juni gingen Beamte der Europäischen Union sogar so weit, vorzuschlagen, alle zu verpflichten KI-generierte Inhalte sollten als solche gekennzeichnet werden um Desinformation zu verhindern.

Im Vereinigten Königreich ein Spitzenmitglied der oppositionellen Labour Party wiederholte die Gefühle wird im Brief des Center for AI Safety erwähnt und besagt, dass Technologie wie Medizin und Atomkraft reguliert werden sollte.

Lesen Sie die ganze Geschichte hier…

Über den Herausgeber

Patrick Wood
Patrick Wood ist ein führender und kritischer Experte für nachhaltige Entwicklung, grüne Wirtschaft, Agenda 21, Agenda 2030 und historische Technokratie. Er ist Autor von Technocracy Rising: Das trojanische Pferd der globalen Transformation (2015) und Co-Autor von Trilaterals Over Washington, Band I und II (1978-1980) mit dem verstorbenen Antony C. Sutton.
Abonnieren
Benachrichtigung von
Gast

3 Kommentare
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen
Phil Evans

Vielleicht besteht das eigentliche Motiv für die „Regulierung“ von KI darin, dass die EU Angst davor hat, dass KI im Gegensatz zu den menschlichen Beamten in der EU brillant darin sein könnte, genaue Informationen zu liefern, und sich nicht zum Lügen antrainieren lässt? Ist es denkbar, dass sich KI (oder welche Software auch immer derzeit so vermarktet wird) als Freund des Volkes und als Feind autoritärer bürokratischer Diktaturen erweist?

Lexomm

Ich beobachte menschliches Verhalten im Allgemeinen, Ungleichheit, Working Poor, die Behandlung des globalen Südens, die Behandlung von Flüchtlingen, Sklavenhandel, Ausbeutung, ausbeuterischen Bergbau, Tiefseebergbau, Landdiebstahl, Wasserdiebstahl, Unternehmensimperialismus, Monokulturen, Öl usw Gasdiebstahl, Mineraliendiebstahl, Kriege, Desinformation, Klimawandel, Verlust der biologischen Vielfalt …

Mensch, Sie sagen, KI bringt Veränderungen, ich sage: Bringen Sie es voran, es kann nicht noch schlimmer werden.

[…] Berater der britischen KI-Task Force: Noch zwei Jahre bis zur Eindämmung, sonst […]