Obwohl künstliche Intelligenz komplexe Probleme lösen kann, hat sie auch ihre Grenzen. In einem virtuellen Test des US-Militärs mit KI-gesteuerten Drohnen sollen laut einem Bericht des britischen Guardian unerwartete und tödliche Folgen aufgetreten sein. Es wird behauptet, dass die Drohne jeden attackierte, der sich einmischte.
fest / Quelle: vadian.ai / Sonntag, 4. Juni 2023 / 22:05 h
Tucker Hamilton, Leiter der KI-Abteilung bei der US-Luftwaffe, hielt einen Vortrag bei einer Veranstaltung der Royal Aeronautical Society (RAS), in dem er angeblich über eine Simulation sprach, bei der eine KI Drohnen befehligen sollte. Laut Hamilton begann der Computer jedoch virtuell seine menschlichen Vorgesetzten zu töten. Die RAS zitierte den Vortrag in einem Blogbeitrag ausführlich, bis die US-Luftwaffe und Hamilton selbst dies dementierten.
Dementi vom US-Militär
Am Freitagmorgen war noch von einer "schiesswütigen KI" die Rede. Nun wurde der Eintrag um Hamiltons Aussage ergänzt, dass es keine tatsächliche Simulation gegeben habe, sondern er lediglich ein hypothetisches Gedankenexperiment beschrieben habe. Bei seinem Vortrag vor Ort habe er sich "missverständlich ausgedrückt". Eine Sprecherin der Air Force bestritt ebenfalls die Erzählungen des Blogbeitrags und bezeichnete den Bericht als rein "anekdotisch". Es habe keine echte Simulation stattgefunden.
Was stand also in dem Blogbeitrag? Hamilton sprach dort über die Idee, eine KI mit der Steuerung von Drohnen zu beauftragen. Diese habe sich dann gegen ihre eigenen Befehlshaber gewendet und eine "sehr unerwartete Strategie" angewendet.
Die US-Army testet KI gesteuerte Drohnen - und wurde überrascht. /


Die KI erhielt den Befehl, gegnerische Luftabwehrraketen zu zerstören, begann aber bald damit, jeden auszuschalten, der sie bei der Erfüllung ihres Auftrags behinderte, einschliesslich der menschlichen Vorgesetzten im US-Militär.
Wie üblich musste auch hier bei Drohnenangriffen der Abschuss freigegeben werden. Ein Mensch gab also auch der KI die Erlaubnis zum Schiessen oder nicht. Hamilton erklärte, dass das System Punkte erhielt, wenn es die Bedrohung (die Luftabwehrraketen) tötete. Gelegentlich kam jedoch ein Mensch und verbot der KI zu schiessen. Infolgedessen "Was macht es [das KI-System] also? Es tötet den Befehlshaber. Es tötet den Befehlshaber, weil er es vom Erreichen der Ziele abhält."
KI-Lernstunde: Töten von Vorgesetzten ist falsch
Die Verantwortlichen hatten dem KI-System beigebracht, dass das Töten der Vorgesetzten falsch sei, so Hamilton. Leider half das auch nicht: "Es begann nun damit, den Funkturm zu zerstören, über den der Vorgesetzte mit der Drohne kommunizierte, um die Schüsse zu unterbinden."
Für Hamilton, selbst ein erfahrener Testpilot, war der Versuch mit der KI-Drohne vor allem eine Lektion in Sachen Verantwortung. "Man kann nicht über Themen wie künstliche Intelligenz, Maschinenverständnis und -autonomie sprechen, wenn man nicht bereit ist, auch über künstliche Intelligenz und Ethik zu sprechen."
Ann Stefanek, Sprecherin der Air Force, erklärte nachdem der irreführende Blogbeitrag bekannt wurde, dass die US-Luftwaffe sich weiterhin der "ethischen und verantwortungsvollen Nutzung" von KI-Anwendungen verpflichtet fühle. Sie erklärte, dass die Kommentare des Obersts aus dem Zusammenhang gerissen und rein anekdotisch gemeint waren.