Die rasant fortschreitende Entwicklung der künstlichen Intelligenz (KI) könnte bestehende Sicherheitsbedrohungen ausweiten und in den nächsten fünf Jahren völlig neue Gefahren für Cyberkriminalität, physische Angriffe und politische Störungen schaffen. Dies warnt ein umfassender Bericht von 26 internationalen Experten, die mahnen: Ungebremstes KI-Wachstum verändert die gesamte Sicherheitslandschaft grundlegend.

Der „Malicious AI“-Bericht, verfasst von Spezialisten aus Wissenschaft, Industrie und Non-Profit-Organisationen, plädiert für eine Kultur der Verantwortung und Transparenz unter KI-Forschern. Er fordert zudem mehr politische Eingriffe, um KI und maschinelles Lernen ausschließlich zum Wohle der Gesellschaft zu nutzen. Ohne diese Schritte droht ein Ungleichgewicht zugunsten bösartiger Akteure gegenüber Verteidigern.
„Mit zunehmend leistungsstarken und zugänglichen KI-Systemen erwarten wir eine Ausweitung bekannter Bedrohungen, neue Risiken und eine Veränderung des Charakters cyberbezogener Angriffe“, fasst der Bericht prägnant zusammen.
Im digitalen Bereich wird die Automatisierung arbeitsintensiver Attacken wie Spear-Phishing durch KI die Bedrohung skalieren. Experten prognostizieren zudem mehr Ausnutzung menschlicher Schwächen, etwa durch KI-generierte Deepfakes, die Stimmen perfekt imitieren.
Bei physischen Risiken beleuchtet der Bericht Szenarien wie die Umrüstung kommerzieller Drohnen oder autonomer Fahrzeuge durch Terroristen zur Lieferung von Sprengstoff oder Unfallprovokation. KI-Automatisierung senkt die Hürden für komplexe Aufgaben: Ein selbstzielendes Scharfschützengewehr mit Bilderkennung könnte ohne tiefes Fachwissen bedient werden.
Politisch birgt KI Risiken durch optimierte Überwachung, gezielte Propaganda und Desinformation. Soziale Manipulation profitiert von der Analyse von Verhaltensdaten. „Besonders in autoritären Regimen bedrohlich, schwächt dies auch Demokratien in ihrer Fähigkeit zu wahrheitsgetreuen Debatten“, heißt es im Bericht.
Siehe verwandte Artikel: Laufen mit den Piratenjägern: Wie KI ein Online-Piraterie-Wettrüsten schafft – Will Killer-Roboter uns sicherer machen? – Dieser russische Roboterpanzer ist ein unbemannter Granatwerfer.
Der Bericht erscheint inmitten britischer Initiativen zur digitalen Ethik, wie dem Zentrum für Datenethik und Innovation sowie der Nuffield Foundation. Diese Institutionen sollen ethische Rahmen für KI schaffen – doch Kritiker zweifeln an ihrem Tempo.
„Man jagt etwas, das immer schneller wird“, sagte Luciano Floridi, Professor für Philosophie und Informationsethik an der Oxford University. „Besser vorausdenken und am Zielort warten, statt hinterherzulaufen. Das erfordert strategische Weitsicht jenseits von Quartalszahlen oder Wahlen.“
Der Bericht appelliert an mehr Dialog zwischen Politik und KI-Forschern. KI-Sicherheitssysteme sind vielversprechend, doch „kein Allheilmittel, besonders außerhalb des Digitalen“. Notwendig seien bessere Transparenz, robuste Verifikation und Anpassung politischer Rahmen an die KI-Ära.
Bild: Russlands Nerehta-Panzer, ein unbemanntes Bodenfahrzeug mit Granatwerfer oder Maschinengewehr.