Als im August letzten Jahres ein Selbstmordattentäter den Kabul International Airport angriff, waren Tod und Zerstörung überwältigend: Die Gewalt forderte 183 Tote, darunter 13 US-Soldaten.
Diese Art von Massenverletztenereignis kann für Außendienstmitarbeiter besonders entmutigend sein. Hunderte von Menschen müssen versorgt werden, die Krankenhäuser in der Nähe haben nur begrenzt Platz, und Entscheidungen darüber, wer zuerst versorgt wird und wer warten kann, müssen schnell getroffen werden. Oft ist die Antwort nicht klar und die Leute sind anderer Meinung.
Die Defense Advanced Research Projects Agency (DARPA) – der Innovationsarm des US-Militärs – will diese heiklen Fragen beantworten, indem sie den Entscheidungsprozess an künstliche Intelligenz auslagert. Durch ein neues Programm namens In the Moment will es eine Technologie entwickeln, die in Stresssituationen mithilfe von Algorithmen und Daten schnelle Entscheidungen treffen kann, und argumentiert, dass das Entfernen menschlicher Vorurteile Leben retten kann, so die Details aus dem Start des Programms in diesem Monat.
Obwohl das Programm noch in den Kinderschuhen steckt, kommt es, da andere Länder versuchen, ein jahrhundertealtes System der medizinischen Triage zu aktualisieren, und das US-Militär sich zunehmend auf Technologie stützt, um menschliches Versagen im Krieg zu begrenzen. Aber die Lösung lässt bei einigen Experten und Ethikern Bedenken aufkommen, die sich fragen, ob KI beteiligt sein sollte, wenn Menschenleben auf dem Spiel stehen.
„KI ist großartig darin, Dinge zu zählen“, sagte Sally A. Applin, eine wissenschaftliche Mitarbeiterin und Beraterin, die die Schnittstelle zwischen Menschen, Algorithmen und Ethik untersucht, in Bezug auf das DARPA-Programm. „Aber ich denke, es könnte einen Präzedenzfall schaffen, bei dem die Entscheidung über das Leben eines Menschen in die Hände einer Maschine gelegt wird.“
DARPA wurde 1958 von Präsident Dwight D. Eisenhower gegründet und gehört zu den einflussreichsten Organisationen in der Technologieforschung und hat Projekte hervorgebracht, die bei zahlreichen Innovationen eine Rolle gespielt haben, darunter das Internet, GPS, Wettersatelliten und in jüngerer Zeit der Coronavirus-Impfstoff von Moderna.
Aber seine Geschichte mit KI hat die Höhen und Tiefen des Feldes widergespiegelt. In den 1960er Jahren machte die Agentur Fortschritte in der Verarbeitung natürlicher Sprache und brachte Computer dazu, Spiele wie Schach zu spielen. In den 1970er und 1980er Jahren kam der Fortschritt ins Stocken, insbesondere aufgrund der begrenzten Rechenleistung.
Seit den 2000er Jahren, als sich die Grafikkarten verbesserten, die Rechenleistung billiger wurde und Cloud Computing boomte, erlebte die Behörde ein Wiederaufleben der Nutzung künstlicher Intelligenz für militärische Anwendungen. Im Jahr 2018 stellte es über ein Programm namens AI Next 2 Milliarden US-Dollar bereit, um KI in über 60 Verteidigungsprojekte zu integrieren, was zeigt, wie zentral die Wissenschaft für zukünftige Kämpfer sein könnte.
„DARPA stellt sich eine Zukunft vor, in der Maschinen mehr als nur Werkzeuge sind“, sagte die Agentur bei der Ankündigung des AI Next-Programms. „Die Maschinen, die sich DARPA vorstellt, werden eher als Kollegen denn als Werkzeuge fungieren.“
Zu diesem Zweck wird das In the Moment-Programm von DARPA Algorithmen erstellen und bewerten, die militärischen Entscheidungsträgern in zwei Situationen helfen: Verletzungen kleiner Einheiten, wie sie von Special Operations-Einheiten unter Beschuss ausgesetzt sind, und Ereignisse mit Massenopfern, wie der Bombenanschlag auf den Flughafen von Kabul. Später könnten sie Algorithmen entwickeln, um Katastrophenhilfesituationen wie Erdbeben zu helfen, sagten Beamte der Agentur.
Das Programm, das ungefähr 3.5 Jahre dauern wird, fordert private Unternehmen auf, bei seinen Zielen zu helfen, was ein Teil der meisten frühen DARPA-Forschung ist. Beamte der Agentur wollten nicht sagen, welche Unternehmen interessiert sind oder wie viel Geld für das Programm vorgesehen ist.
Matt Turek, ein Programmmanager bei DARPA, der für die Betreuung des Programms verantwortlich ist, sagte, die Vorschläge der Algorithmen würden „sehr vertrauenswürdige Menschen“ modellieren, die über Fachkenntnisse in der Sichtung verfügen. Aber sie werden in der Lage sein, auf Informationen zuzugreifen, um kluge Entscheidungen in Situationen zu treffen, in denen selbst erfahrene Experten ratlos wären.
Zum Beispiel, sagte er, könnte KI helfen, alle Ressourcen eines nahe gelegenen Krankenhauses zu identifizieren – wie die Verfügbarkeit von Medikamenten, die Blutversorgung und die Verfügbarkeit von medizinischem Personal – um die Entscheidungsfindung zu unterstützen.
„Das würde nicht in das Gehirn eines einzelnen menschlichen Entscheidungsträgers passen“, fügte Turek hinzu. „Computeralgorithmen können Lösungen finden, die Menschen nicht finden können.“
[…] Aus Technocracy News & Trends […]
[…] Aus Technocracy News & Trends […]
[…] Originalartikel lesen […]
Forbin Project oder Wargames. Treffen Sie Ihre Wahl. Dr' Strangelove vielleicht? Denken Sie daran, Leute, das „A“ in „AI“ steht für ARTIFICIAL, was bedeutet, dass es nicht echt ist. „KI“ bedeutet also im Wesentlichen „KEINE ECHTE INTELLIGENZ. „
[…] Konvergenz 2035 liest sich wie ein technokratischer[12] Traum, der den Grundstein für die dauerhafte Inhaftierung aller Menschen und die totale Kontrolle über […] legt.