Keyboard-Trolle sind auf Twitter Alltag, und das Netzwerk hat Mühe, sie effektiv zu bekämpfen. Die Kreativagentur Possible griff daher ein und startete die Kampagne 'We Counter Hate', die Hassrede in etwas Positives verwandelt.

In Kooperation mit Spredfast trainierte Possible eine KI, um hasserfüllte Tweets zu identifizieren. Bei Erkennung schickt ein menschlicher Moderator einen Gegen-Tweet, der den Troll auf die karmische Konter-Antwort hinweist. Für jeden Retweet der Kampagne spendet Possible – dank öffentlicher Zuwendungen – 1 US-Dollar an die Non-Profit-Organisation Life After Hate.
Possible erklärte gegenüber VentureBeat, wie das Team die KI trainierte: Basierend auf Gregory Stantons 'Ten Stages of Genocide' wurde das Modell auf Twitter-spezifische Hassmuster verdichtet – von entmenschlichenden bis zu polarisierenden Tweets.
Mit Spredfast werden eingehende Nachrichten moderiert und in Hassrede-Kategorien sortiert. Die KI lernt so sprachliche Nuancen und markiert Tweets für menschliche Überprüfung, um Fehlalarme zu vermeiden.

(Oben: @we_counter_hate in Aktion)
Trolle auf ihrer Plattform zu kontern? Eine noble Idee – doch sie birgt Risiken.
Die Herausforderungen bei Bot-basiertem Troll-Management
Trolle sabotieren gute Initiativen gerne. Ähnlich wie bei Shia LaBeoufs Kunstperformance 'He Will Not Divide Us' gegen Trumps Amtseinführung, die nach Troll-Angriffen nach drei Wochen scheiterte, könnten Trolle hier Lücken ausnutzen.
We Counter Hate lädt förmlich zum Experimentieren ein. Trolle könnten den Bot gezielt triggern.
Drittens: Die Kampagne könnte Hassrede indirekt fördern – mehr Hass-Tweets bedeuten mehr Konter und Retweets. Manche posten Hass absichtlich, um Reaktionen zu provozieren.
Solche Kampagnen sind lobenswert, doch meine Expertise in Online-Moderation zeigt: Es gibt keine Allheilmittel. Die Wurzeln liegen in den Plattformen selbst. Ein Marketing-Bot allein löst das Troll-Problem nicht dauerhaft.