DeuAq.com >> Leben >  >> Elektronik

Facebook setzt KI ein, um die Ausbreitung des Terrorismus zu bekämpfen

Facebook hat in einem Blogbeitrag angekündigt, dass seine KI terroristische Inhalte besser erkennen und anschließend entfernen kann es. Ich persönlich hatte noch nie die Erfahrung, durch einen Facebook-Feed zu scrollen und auf Posts zu stoßen, die terroristische Gruppen wie ISIS und Al Qaida fördern, aber ich kann mir vorstellen, wie erschreckend es sein kann, dies zu sehen.

Facebook setzt KI ein, um die Ausbreitung des Terrorismus zu bekämpfen Im Laufe der Jahre hat Facebook Fragen darüber laut, wie verantwortlich es für die Eindämmung der Beiträge auf seiner Plattform, aber jetzt scheint es endlich etwas Bemerkenswertes getan zu haben, um es zu stoppen.

In der Vergangenheit hat sich Facebook darauf verlassen, dass seine Nutzer terroristische Inhalte melden. Allerdings verwendet es jetzt zunehmend KI, um Posts zu identifizieren und innerhalb einer Stunde zu entfernen – etwas, das Kritiker freuen wird, die glauben, dass der Social-Media-Riese nicht genug tut, um die Verbreitung von terroristischem Material online zu bekämpfen.

Ein solcher Kritiker, Hans-Georg Maaßen, Deutschlands Chef des Verfassungsschutzes, machte Facebook für die Verbreitung von Hasspostings und Fake News verantwortlich und beschuldigte das Unternehmen, eine „fünfte Macht zu sein, die Ansprüche erhebt, aber aufgeht bisher“ wollte „keine gesellschaftliche Verantwortung übernehmen.“

Facebooks Blogpost scheint das Narrativ verschieben zu wollen und skeptischen Ländern wie Deutschland zu zeigen, dass Facebook tatsächlich etwas tut.

WEITER LESEN:Facebook gibt zu, an den Emotionen der Nutzer herumgespielt zu haben

„Heute entfernen wir 99,9 % der Terror-Inhalte im Zusammenhang mit ISIS und Al Quaida von Facebook, die wir erkennen, bevor jemand in unserer Community sie uns gemeldet hat, und in einigen Fällen, bevor sie live gehen the site“, schrieben Monika Bickert, Head of Global Policy Management, und Brian Fishman, Head of Counterterrorism Policy, in dem Blogbeitrag. „Wir tun dies hauptsächlich durch den Einsatz automatisierter Systeme wie Foto- und Videoabgleich und textbasiertes maschinelles Lernen. Sobald wir von Terrorinhalten erfahren, entfernen wir 83 % der anschließend hochgeladenen Kopien innerhalb einer Stunde nach dem Hochladen.“

Derzeit zielt der Algorithmus nur auf Inhalte von Al Qaida und ISIS ab, da die KI darauf trainiert wurde, die Satzstrukturen und sprachlichen Funktionen ausschließlich von diesen beiden Organisationen zu lernen. Das ist zwar noch ein Fortschritt, wirft aber Fragen darüber auf, wo sich Inhalte anderer regionaler extremistischer Organisationen wie der EDL und Britain First innerhalb des Vereinigten Königreichs befinden.

Sehen Sie, wie Facebook 2 Milliarden Nutzer erreicht, während es sich mit dem auseinandersetzt, was es geworden ist. Facebook lehrt seine KI, Menschen mit Suizidrisiko zu finden

Facebook behauptet, dass diese regionalen Organisationen nicht nur über seine KI-Plattform angegriffen werden können. Damit die KI von Facebook versteht, was diese Posts sind, müssen Experten aus dem kollaborativen Facebook-Forum die extremistischen Posts auf ihrer Plattform identifizieren und kennzeichnen.

Bereits im Juni gründeten Facebook, Microsoft, Twitter und YouTube das Global Internet Forum to Counter Terrorism. Die Zusammenarbeit zwischen den Giganten der sozialen Netzwerke zielte darauf ab, die Ausbreitung von Terrorismus und Extremismus auf ihren Plattformen zu stoppen. Über diese Gruppe versuchen Facebook und seine Mitarbeiter, Veränderungen in der Art und Weise zu erkennen, wie terroristische Organisationen soziale Medien nutzen, um Propaganda zu verbreiten, und dann entsprechend auf diese Erkenntnisse zu reagieren.

Nur die Zeit wird zeigen, ob irgendetwas davon tatsächlich die Verbreitung von terroristischem Material auf der Website eindämmen wird. Aber hoffen wir, dass sie weiterhin ihrer Pflicht nachkommen, ein Online-Umfeld frei von hasserfüllten Posts und extremistischen Inhalten zu fördern.