Facebook hat in einem offiziellen Blogbeitrag seine fortschrittliche KI vorgestellt, die terroristische Inhalte zuverlässig erkennt und entfernt. Als Experte für Social-Media-Plattformen habe ich selten solche extremen Inhalte in meinem Feed gesehen, doch für viele Nutzer weltweit stellen sie eine reale Bedrohung dar.

Über Jahre hinweg stand Facebook in der Kritik, nicht genug gegen terroristische Beiträge auf seiner Plattform zu unternehmen. Nun setzt das Unternehmen maßgeblich auf KI, um diese Inhalte rasch zu identifizieren und innerhalb einer Stunde zu löschen – ein Schritt, der Kritiker zufriedenstellen dürfte.
In der Vergangenheit verließen sich Facebooks Moderatoren stark auf Nutzermeldungen. Heute übernehmen automatisierte Systeme diese Aufgabe effizient und verhindern so die schnelle Ausbreitung von Hass und Extremismus.
Ein prominenter Kritiker, Hans-Georg Maaßen, ehemaliger Präsident des Bundesamts für Verfassungsschutz, warf Facebook vor, als 'fünfte Macht' zu agieren, die Anspruch erhebt, aber keine gesellschaftliche Verantwortung übernimmt. Dieser Blogbeitrag signalisiert einen Wandel und demonstriert Facebooks Engagement, insbesondere gegenüber skeptischen Ländern wie Deutschland.
WEITER LESEN: Facebook gibt zu, an den Emotionen der Nutzer herumgespielt zu haben
'Heute entfernen wir 99,9 % der Terrorinhalte im Zusammenhang mit ISIS und Al-Qaida, die wir erkennen, bevor ein Community-Mitglied sie meldet – und in manchen Fällen, bevor sie online gehen', schreiben Monika Bickert, Leiterin Global Policy Management, und Brian Fishman, Leiter Counterterrorism Policy. 'Wir nutzen dafür automatisierte Systeme wie Foto- und Videoabgleich sowie textbasiertes maschinelles Lernen. Sobald wir von Terrorinhalten erfahren, löschen wir 83 % der anschließenden Kopien innerhalb einer Stunde nach dem Upload.'
Derzeit konzentriert sich der Algorithmus auf ISIS und Al-Qaida, trainiert auf deren spezifische Sprache und Strukturen. Dies markiert einen wichtigen Fortschritt, wirft aber Fragen zu anderen Gruppen wie der EDL oder Britain First im Vereinigten Königreich auf.
Facebook betont, dass seine KI auch für regionale Extremisten erweitert werden kann – vorausgesetzt, Experten im Tech for Good-Forum kennzeichnen entsprechende Inhalte. Im Juni 2017 gründeten Facebook, Microsoft, Twitter und YouTube das Global Internet Forum to Counter Terrorism, um gemeinsam gegen Terrorpropaganda vorzugehen und Propagandamuster zu analysieren.
Ob diese Maßnahmen langfristig wirken, zeigt die Zeit. Facebook engagiert sich weiterhin dafür, eine Plattform frei von Hass und Extremismus zu schaffen – für seine 2 Milliarden Nutzer weltweit.