Große Tech-Oberherren kritisieren mangelnde KI-Regulierung und kämpfen dann gegen die Aufsichtsbehörden, um zurückzutreten

Getty Images
Bitte teilen Sie diese Geschichte!
Googles Entdeckung und Ausnutzung des Überwachungskapitalismus verblasst im Vergleich zur Verbreitung von KI im Gesundheitswesen. Es ist ein wilder Westen der ständigen Gesetzlosigkeit ohne Rechenschaftspflicht oder Transparenz. Welche Gewinne innerhalb der nächsten zwei oder drei Jahre erzielt werden können, wird darüber entscheiden, wer den Großteil der Marktanteile und damit dauerhafte Gewinne hat. ⁃ TN-Editor

Große Technologieunternehmen wehren sich dagegen vorgeschlagene Bundesregeln die Überwachung der in der Patientenversorgung eingesetzten Instrumente der künstlichen Intelligenz (KI) zu verbessern, Stat berichtet.

Die Unternehmen, darunter Google, Amazon und Epic, werden von der Verbreitung der KI im Gesundheitswesen unerwartete Gewinne erzielen, indem sie eine Vielzahl von Tools an Versicherer und Anbieter verkaufen, die von der Automatisierung klinischer Dokumentationsverfahren über die Bewertung von Versicherungsansprüchen bis hin zur Bereitstellung virtueller Pflege reichen.

Der Technologiebranche schlossen sich große Gesundheitsdienstleister, große private Versicherer und Anbieter medizinischer Software an und lehnten den Vorschlag des Büros des Nationalen Koordinators für Gesundheitsinformationstechnologie (ONC) ab, die Transparenz der KI- und maschinellen Lerntechnologien (ML), die die Entscheidungsfindung im Gesundheitswesen unterstützen, einzuschränken und zu erweitern – was ONC „prädiktive Entscheidungsunterstützungsinterventionen“ oder DSI nennt.

Das ONC, das beim US-Gesundheitsministerium angesiedelt ist und elektronische Gesundheitsakten überwacht, hat im April Regeln für „Gesundheitsdaten, Technologie und Interoperabilität“ vorgeschlagen.

Die Regeln sind offen für öffentliche Kommentare bis 20. Juli.

Die vorgeschlagenen Regeln, die die aktualisieren 21st Century Cures Act, versuchen, das Mandat der Biden-Regierung zu unterstützen das öffentliche Vertrauen in KI stärken indem wir Ärzten in ihren elektronischen Patientenakten mehr Informationen darüber geben AI-Algorithmen So können sie die Anwendbarkeit der Technologie für eine bestimmte Patientengruppe oder einen bestimmten Umstand besser beurteilen, sagte das ONC gegenüber Reportern.

Studie Die letztes Jahr im Journal of Medical Internet Research veröffentlichte Studie ergab, dass „trotz der Fülle an Behauptungen über die Vorteile von KI bei der Verbesserung klinischer Ergebnisse ein Mangel an belastbaren Beweisen besteht.“

Aber dieser Mangel an Beweisen hat die Technologiegiganten nicht davon abgehalten Entwicklung von KI-Tools, oder private Gesundheitsunternehmen davon abhalten, sie zunehmend zu nutzen, um „lebensverändernde Entscheidungen mit wenig unabhängiger Aufsicht zu treffen“ STAT ermittelt, nach Durchsicht geheimer Unternehmensdokumente und Hunderter Seiten Bundesunterlagen und Gerichtsakten.

Befürworter preisen die Ausweitung der KI auf das Gesundheitswesen als einfache Möglichkeit, Kosten zu senken und die Pflege zu verbessern, indem beispielsweise die Zeit, die Patienten persönlich mit Ärzten verbringen, insbesondere in der Primärversorgung, verkürzt wird.

Aber auch Kritiker, etwa Anwälte und Gesundheitsaktivisten Ady BarkanSie sagen, dass es immer mehr Beweise dafür gibt, dass KI-Entscheidungen im Gesundheitswesen den Patienten geschadet haben. „Roboter sollten nicht machen Entscheidungen über Leben oder Tod“, sagte er.

Beim Vorschlag der neuen Regeln berücksichtigte auch das ONC zitierte Bedenken About zunehmende Anzeichen dafür, dass Vorhersagemodelle das Potenzial für viele verschiedene Risiken mit negativen Auswirkungen auf Patienten und Gemeinschaften sowohl einführen als auch erhöhen.

Als Reaktion darauf sagte das ONC, dass es ein neues Kriterium für „Entscheidungsunterstützungsinterventionen“ vorschlägt, das neue Transparenz- und Risikomanagementerwartungen für KI- und ML-Technologie schaffen würde, die die Entscheidungsfindung im Gesundheitswesen unterstützen.

Die neuen Vorschriften würden auch für Modelle der Gesundheitsinformationstechnologie gelten, die mit KI interagieren.

Die vom ONC vorgeschlagenen wesentlichen Änderungen würden erfordern, dass alle diese Systeme den Benutzern Informationen über die Funktionsweise der Algorithmen im Klartext zur Verfügung stellen, ähnlich einer „Nährwertkennzeichnung“.

Die Regeln erfordern auch die Entwicklung neuer Risikomanagementpraktiken für alle Systeme. Und Informationen darüber, wie mit Risiken umgegangen wird, müssten öffentlich zugänglich sein.

Entwickler müssten außerdem einen Mechanismus für öffentliches Feedback bereitstellen.

„Wenn es abgeschlossen ist“, so die Nationale Gesetzesüberprüfung, wird der Regulierungsvorschlag für DSI „erhebliche Auswirkungen auf die Entwicklung, den Einsatz und die Nutzung von KI/ML-Tools im Gesundheitswesen haben.“

Tech-Giganten sagen, Transparenzregeln würden sie zur Offenlegung von „Geschäftsgeheimnissen“ zwingen

Auf über 200 öffentliche Kommentare Die beim ONC eingereichten Vorschläge – hauptsächlich von den Technologie- und Gesundheitsunternehmen, die den Vorschriften unterliegen werden – „machen den bevorstehenden Kampf deutlich, da Unternehmen um den Einsatz immer leistungsfähigerer KI-Tools in sicherheitskritischen Sektoren wie dem Gesundheitswesen wetteifern, in denen die potenziellen Gewinnspannen viel größer sind als die Fehlerquote“, sagte STAT.

Viele von Googles eigenen Wissenschaftlern sowie Top-Tech-Milliardäre und KI-Entwickler haben öffentlich Bedenken geäußert, dass KI ein Risiko darstellt existenzielle Bedrohung für die Menschheity und unmittelbare Risiken für die Gesundheit und das Wohlbefinden des Menschen.

Dennoch äußerten Technologieunternehmen, Versicherer und Anbieterverbände in ihren Briefen an das ONC „Bedenken“ über die vorgeschlagenen Vorschriften. Sie sagten, die vorgeschlagenen Regeln seien „zu weit gefasst“ und die erforderliche Transparenz würde sie dazu zwingen, „geistiges Eigentum“ und „Geschäftsgeheimnisse“ offenzulegen.

In seinen Kommentaren Google widersprach zu einer sogenannten „übertriebenen oder unnötigen Offenlegungspflicht“, die die Kosten für Entwickler und damit für Verbraucher erhöhen würde.

Google sagte auch, dass einschließlich generative KI oder große Sprachmodelle wie BARDE, zusammen mit sogenannten „risikoarmen“ KI-Tools, würde eine übermäßige Belastung für die Unternehmen darstellen.

Aber selbst die Weltgesundheitsorganisation (WHO) hat gesagt dass das Versäumnis, durch künstliche Intelligenz generierte Werkzeuge für große Sprachmodelle angemessen zu regulieren, das menschliche Wohlergehen gefährdet, und weist auf Programme wie BARD und hin ChatGPT speziell.

Amazon hat auch geschrieben dass das ONC durch die Anwendung seiner Regeln auf eine breite Klasse von Technologien, die auf prädiktiver KI/ML basieren, „weit über das hinausgeht“, was zur Regulierung der Branche und zur Risikominderung angemessen wäre.

Epische Systeme, der landesweit größte Anbieter elektronischer Patientenakten, argumentierte in seinen Kommentaren auch, dass die von ONC vorgeschlagenen Vorschriften zu weit gefasst seien, und erklärte, dass das ONC keine öffentlichen Offenlegungen über die Funktionsweise von KI zur Voraussetzung für die Zertifizierung von Gesundheits-IT-Systemen machen dürfe.

„Wenn zertifizierte IT-Entwickler im Gesundheitsbereich ihr geistiges Eigentum öffentlich offenlegen müssten, während nicht zertifizierte Entwickler von Vorhersagemodellen nicht dazu verpflichtet wären, die gleiche Offenlegung vorzunehmen, würde ein erhebliches Ungleichgewicht in der Markttransparenz – und letztlich auch im Anreiz für Innovationen – entstehen“, heißt es in der Mitteilung Unternehmen schrieb.

Mangelnde Kontrolle führt dazu, dass Unternehmen Algorithmen manipulieren, um ihre Gewinne zu steigern

Kritiker der wachsenden unverantwortlichen und unregulierten Rolle von KI/ML im Gesundheitswesen, darunter Forscher, die KI entwickeln, und Gesundheitsdienstleister argumentierten, dass die vorgeschlagenen Regeln nicht weit genug gehen, um die Öffentlichkeit zu informieren und zu schützen.

Brief Der von einer interdisziplinären Gruppe von 34 Wissenschaftlern der University of Michigan – mit Mitunterzeichnern von mehr als 30 anderen Gesundheitsforschungseinrichtungen in den USA und Europa – dem ONC vorgelegte Bericht forderte das ONC auf, strengere Vorschriften anzuwenden.

Sie argumentierten, dass die Öffentlichkeit auch darüber informiert werden sollte, welche Daten in diese Modelle einfließen – dazu gehört auch die Forderung nach Transparenz darüber, welche Variablen die Modelle für ihre Vorhersagen verwenden und woher die Daten stammen, die zum Trainieren und Bewerten der KI-/ML-Systeme verwendet werden.

Das Versäumnis, die Öffentlichkeit über diese Informationen zu informieren, habe zu „jüngsten Gegenreaktionen und Schäden durch den Einsatz prädiktiver (Modelle) im Gesundheitswesen“ geführt, schrieben sie, etwa in Bezug auf Rasse, Geschlecht und Klasse vorspannen und fehlerhafte Vorhersagen auf der Grundlage schlecht ausgewählter Daten, die zu schlechteren Gesundheitsergebnissen führten.

Neue Erkenntnisse zeigen aber auch, dass der Mangel an Transparenz und Regulierung es Unternehmen ermöglicht, Algorithmen zu manipulieren, um ihren Gewinn zu steigern – mit schwerwiegenden Folgen für die menschliche Gesundheit.

Eine STAT-Untersuchung im März ergab, dass KI die Zahl der abgelehnten medizinischen Ansprüche in die Höhe treibt Medicare Vorteil. Die Untersuchung ergab, dass Versicherer unregulierte Vorhersagealgorithmen verwendeten, die von erstellt wurden naviGesundheit zu ermitteln, ab wann sie die Behandlungszahlungen für ältere Patienten plausibel kürzen können.

Letzte Woche, Stat berichtet das nach United Healthcare erworben Mit der Einführung von naviHealth im Jahr 2020 verschlimmerte sich das Problem und selbst Ärzte konnten die vom Algorithmus getroffenen Pflegeentscheidungen nicht außer Kraft setzen, ohne ernsthaften Widerstand seitens des Managements zu erleiden.

In seinen Kommentaren gegenüber dem ONC lehnte United Healthcare außerdem mehrere Aspekte der vorgeschlagenen OTC-Regeln vehement ab, die die Regulierung genau dieser Art von Algorithmen verschärfen würden.

Das Unternehmen sagte, die ONC-Definition von DSI sei „vage und zu weit gefasst“ und würde die Bedeutung von DSI „über den klinischen Verwendungszweck hinaus“ verschieben und strenge Anforderungen an Werkzeuge mit geringem Risiko stellen.

Es lehnte auch die vorgeschlagenen ONC-Anforderungen ab, Informationen über die Funktionsweise der Algorithmen offenzulegen, und verwies auf „Risiken für den Entwickler“, die dadurch entstehen würden, dass sensible oder geschützte Informationen mit Benutzern geteilt werden müssten.

Einige Aktivisten haben die mobilisiert Stoppt #DeathByAI Kampagne, um Missbrauch durch KI in Medicare Advantage zu stoppen, Common Dreams berichtet.

Aber das ist nur die Spitze des Eisbergs in diesem explodierenden Markt, der nach Prognosen von Markets and Markets mehr als wert sein wird $ 102 Milliarden 2028 – gegenüber dem aktuellen Wert von 14.6 Milliarden US-Dollar.

Lesen Sie die ganze Geschichte hier…

Über den Herausgeber

Patrick Wood
Patrick Wood ist ein führender und kritischer Experte für nachhaltige Entwicklung, grüne Wirtschaft, Agenda 21, Agenda 2030 und historische Technokratie. Er ist Autor von Technocracy Rising: Das trojanische Pferd der globalen Transformation (2015) und Co-Autor von Trilaterals Over Washington, Band I und II (1978-1980) mit dem verstorbenen Antony C. Sutton.
Abonnieren
Benachrichtigung von
Gast

1 Kommentar
Älteste
Neueste Am meisten gewählt
Inline-Feedbacks
Alle Kommentare anzeigen

[…] Big-Tech-Oberherren kritisieren mangelnde KI-Regulierung und kämpfen dann gegen die Regulierungsbehörden, um zurückzutreten […]