Zwei Forscher des
Army Research Laboratory, dem führenden Forschungslabor der US-Armee für Grundlagenforschung, haben ein massgeschneidertes Sprachmodell entwickelt, das speziell für die Erstellung militärischer Einsatzpläne konzipiert ist. In Simulationen von Militäreinsätzen übertrafen die Sprachmodelle die Künstliche Intelligenz (KI), die auf Verstärkungslernen basiert, in ihrer Leistung. Technische Einzelheiten wurden von Vinicius G. Goecks und Nicholas Waytowich
in einem Paper präsentiert, das sie auf der Preprint-Plattform arXiv veröffentlicht haben.
Weltweit streben militärische Einheiten nach schnellerem und präziserem Handeln auf dem Schlachtfeld durch den Einsatz von KI-Technologien. Das US-Militär hat kürzlich
Palantir beauftragt, eine automatisierte Zielerfassung mithilfe von KI im Wert von 178 Millionen Dollar zu entwickeln.
KI-Systeme für militärische Zwecke
Bisher wurde nicht bekanntgegeben, dass grosse Sprachmodelle tatsächlich im Militär oder der Politik zur Entscheidungsunterstützung eingesetzt werden. Dennoch sind weltweit zahlreiche KI-Systeme im Einsatz, um Militärs taktisch zu unterstützen. Ein Beispiel hierfür ist das israelische Militär, welches KI-Tools verwendet, um Truppen rechtzeitig vor Angriffen zu warnen und Ziele für Operationen vorzuschlagen. Auch beim aktuellen Militäreinsatz im Gaza-Streifen
nutzt die israelische Armee ein System namens «The Gospel», um "feindliche Kombattanten und Ausrüstung" zu identifizieren und «potenzielle militärische Ziele zu markieren». Ähnliche Systeme werden weltweit von Rüstungsherstellern entwickelt und vertrieben.
Schlüsselrolle von KI in der militärischen Planung
Es wird zunehmend diskutiert, KI auch in die operativen Abläufe einzubinden, insbesondere durch den Einsatz fortschrittlicher Sprachmodelle. In einem Versuch haben Militärforscher daher GPT-4 mit Beispielen und relevanter Kontextinformation gefüttert, um die Modelle in die Lage zu versetzen, Einsatzpläne für eine begrenzte Anzahl an Militäreinheiten zu entwickeln. Anschliessend wurden die KI-Assistenten beauftragt, in einem spezifischen Szenario alle gegnerischen Truppen zu eliminieren und einen bestimmten Punkt zu erobern.
Zur Überprüfung der Effektivität der entwickelten Pläne wurden Simulationen des COA-GPT (Course of Action) auf Basis von Starcraft II durchgeführt.
KI wird in Zukunft gross im Militär eingesetzt werden. /


Diese Simulationsplattform wurde 2017 von den Forschern erstellt, um KI-Agenten für simulierte Schlachten auszubilden. Dabei wurden militärische Eigenschaften der Spielcharaktere auf reale militärische Einheiten und historische Szenarien übertragen. Die "feindlichen" Truppen wurden von im Spiel integrierten Bots gesteuert, die hauptsächlich auf Skripten basieren.
Im Test schnitt COA-GPT tatsächlich besser ab als bisherige Programme. Die Effektivität konnte weiter verbessert werden, indem die Forscher für ein neues Planungsverfahren das Feedback menschlicher Experten einbezogen. Allerdings waren die Ergebnisse noch nicht fehlerfrei. Beispielsweise verzeichneten die Sprachmodelle höhere Verluste als andere KI-Agenten. Dennoch sehen die Autoren in ihrem Ansatz «einen transformativen Ansatz in militärischen C2-Operationen (Command and Control), die eine schnellere, agilere Entscheidungsfindung ermöglichen und daher in modernen Kriegen einen strategischen Vorteil bieten».
Nur der Anschein einer Planung?
Mit dem Versprechen von gesteigerter Präzision und Geschwindigkeit wirbt Palantir für seine KI-Plattform, die im militärischen Bereich eingesetzt werden soll.
Bisher hat das Unternehmen jedoch lediglich ein Video veröffentlicht, das nicht ausreichend über die Funktionsweise der Plattform aufklärt. Die Frage, inwiefern grosse Sprachmodelle tatsächlich in der Lage sind zu planen, ist unter Forschern umstritten. Einige Experten bezweifeln, dass diese Modelle logische Schlüsse ziehen oder effektiv planen können. Stattdessen wird vermutet, dass sie lediglich Fragmente aus ihren Trainingsdaten nutzen, um den Anschein von Planung zu erwecken.
Jüngst haben Studien des
Georgia Institute of Technology, der
Stanford University, der
Northeastern University und der
Hoover Wargaming and Crisis Simulation Initiative ergeben, dass das Risiko von Eskalationen signifikant steigt, sollte man grosse Sprachmodelle für militärische oder diplomatische Entscheidungen heranziehen. Selbst in hypothetischen Krisenszenarien empfehlen diese Modelle keineswegs den Einsatz von Atomwaffen.