fest / Quelle: pd / Samstag, 27. Januar 2024 / 18:29 h
In diesem Jahr finden in über 50 Ländern nationale Wahlen statt, u. a. die US-Präsidentschaftswahl, die Europawahl (EU), Landtagswahlen in Deutschland, Nationalratswahlen in Österreich sowie Volksabstimmungen in der Schweiz.
Analysten haben schon lange vor der Gefahr gewarnt, dass bösartige Akteure künstliche Intelligenz (KI) nutzen könnten, um während der Wahlzeit Desinformation zu verbreiten und zu verstärken.
Eine neue Studie unter der Leitung von Forschern der
George Washington University prognostiziert, dass tägliche KI-Aktivitäten bis Mitte 2024 eskalieren werden und eine potenzielle Beeinflussung der Wahlergebnisse darstellen könnten. Diese Studie wurde in der Fachzeitschrift PNAS Nexus veröffentlicht und ist die erste quantitative wissenschaftliche Analyse, die den Missbrauch von KI durch bösartige Akteure weltweit vorhersagt.
«Es wird viel über die Gefahren von KI gesprochen, aber bisher gab es keine wissenschaftliche Untersuchung dieser Bedrohung», sagte Neil Johnson, Hauptautor der Studie und Professor für Physik an der GW.
Internationales Super-Wahljahr 2024. /


«Man kann keinen Kampf gewinnen ohne ein tiefes Verständnis des Schlachtfelds.»
Die Forscher erklären, dass ihre Studie die Frage beantwortet, wie und wo KI-Systeme von bösartigen Akteuren weltweit eingesetzt werden und wie man sie kontrollieren kann.
Unter den Erkenntnissen der Studie:
-
Manipulateure benötigen lediglich einfache Generative Pre-trained Transformer (GPT) KI-Systeme, um Informationen auf Plattformen zu manipulieren und zu verzerren.
-
Fortgeschrittenere Systeme wie GPT 3 und 4 sind in der Regel besser darin, bösartige Aktivitäten einzudämmen.
-
Eine Roadmap über 23 soziale Medienplattformen wurde bereits in früheren Forschungen kartiert. Dies ermöglicht Akteuren mit bösen Absichten direkte Verbindungen zu Milliarden von Nutzern weltweit, ohne dass diese es bemerken.
-
Es wird erwartet, dass KI-gesteuerte Aktivitäten gefährlicher Akteure bis zum Sommer 2024 zur alltäglichen Realität gehören werden. Um dies herauszufinden, haben die Forscher Proxy-Daten von zwei historischen Vorfällen verwendet: automatisierte Algorithmus-Angriffe auf US-Finanzmärkte im Jahr 2008 sowie chinesische Cyberangriffe auf amerikanische Infrastruktur im Jahr 2013. Durch die Analyse dieser Daten konnten sie die Häufigkeit solcher Angriffe extrapolieren und mit dem aktuellen technologischen Fortschritt der KI in Zusammenhang bringen.
-
Anstatt jeden einzelnen Inhalt zu entfernen, sollten Social Media Konzerne Taktiken entwickeln, um Desinformation einzudämmen.
Die Arbeit mit dem Titel «
Controlling bad-actor-AI activity at scale across online battlefields» wurde in der Zeitschrift PNAS Nexus veröffentlicht.
Die Studie wurde vom U.S. Air Force Office for Scientific Research und die Templeton Foundation finanziert.