Mit ruhigen Worten gegen den lauten Hass

Mit ruhigen Worten gegen den lauten Hass

Mit dem Projekt «Social Influencer:in» erprobt die ZHAW digitale Streetwork gegen Hass im Netz – mit methodischer Gegenrede, technischer Unterstützung und Fokus auf Diskursqualität.

Eine junge Frau sitzt spätabends am Laptop und scrollt durch die Kommentarspalten einer grossen Schweizer Nachrichtenseite. Unter einem Artikel über Geflüchtete stösst sie auf eine wütende Tirade voller abwertender Worte. Ihr Herz klopft. Sie ist wütend – und gleichzeitig fest entschlossen einzugreifen. Ruhig formuliert sie eine Antwort: Sie schildert eine persönliche Begegnung mit einer geflüchteten Familie, erzählt von deren Hilfsbereitschaft und beendet ihren Kommentar mit einem Appell an den gegenseitigen Respekt. Dann lehnt sie sich zurück. In den nächsten Stunden wird sie die Diskussion weiter beobachten, sachlich moderieren und notfalls andere Social Influencer:innen zur Verstärkung holen. Was nach einer idealistischen Szene klingt, ist Alltag in einem innovativen Projekt, das die Zürcher Hochschule für Angewandte Wissenschaften (ZHAW) derzeit erprobt. Es setzt auf digitale Streetworker, die mit wirksamer Gesprächsführung gegen Hass im Netz antreten.

Hass im Netz – eine demokratische Herausforderung

Hasskommentare in den sozialen Medien gelten auch in der Schweiz als wachsendes Problem. Sie richten sich oft gegen Menschen aufgrund ihrer Herkunft, ihres Aussehens, ihrer Religion oder einfach wegen einer anderen Meinung. Solche verbalen Angriffe verletzen nicht nur die Betroffenen persönlich, sondern verschieben langfristig auch die Grenzen des gesellschaftlich Sagbaren. Toxische Online-Debatten höhlen die demokratische Gesprächskultur aus, denn „Hass ist sichtbar, weil er laut schreit“ – wenige aggressive Stimmen können mit ihrer Lautstärke den Ton angeben. Studien zeigen, dass ein kleiner Anteil der Nutzer:innen für einen grossen Teil der Hassbeiträge verantwortlich ist: So ergab eine Untersuchung des Institute for Strategic Dialogue, dass nur 5 % der Accounts 50 % des Hass-Traffics generieren. Die grosse Mehrheit hingegen beteiligt sich gar nicht aktiv an Diskussionen. Rund 90 % der Internetnutzenden erstellen selbst keine Inhalte und bleiben stille Mitlesende, die zwar die Kommentare lesen, aber nie selbst schreiben. Wenn diese schweigende Mehrheit überall nur Hass und Hetze wahrnimmt, hat das Folgen: Mehr als die Hälfte der Menschen gibt an, sich aus Sorge vor aggressiven Reaktionen im Netz zurückzuhalten. In der Schweiz berichteten 2022 rund 40 % der Befragten, schon Hasskommentare im Internet gesehen zu haben; beinahe jede zehnte Person wurde sogar persönlich Ziel von Hate Speech. In Deutschland hat eine Umfrage gezeigt, dass wegen des rauen Tons immer mehr Menschen aufhören, ihre Meinung online zu äussern. Laut einer Leipziger Studie von 2020 verzichteten 42 % der Befragten aus Angst vor Hate Speech darauf, Beiträge im Internet zu posten. Anders gesagt: Lauter Hass führt zu leisem Rückzug – aus Furcht ziehen sich viele aus öffentlichen Online-Debatten zurück. Diese Entwicklung gefährdet letztlich die Meinungsfreiheit und damit die Demokratie.

Angesichts dessen diskutieren Politik und Gesellschaft verschiedene Gegenstrategien. Grundsätzlich wird dabei zwischen “Hard” und “Soft Counter Hate Speech” unterschieden. Ersteres umfasst rechtliche Massnahmen und Einschränkungen: also Inhalte löschen, Anzeigen erstatten, Täter juristisch belangen oder Gesetze erlassen, die Hassrede unter Strafe stellen. Dieser Ansatz greift zwar durch, birgt aber das Dilemma, dass er das Grundrecht der freien Meinungsäusserung einschränkt. “Soft Counter Hate Speech” (weiche Gegenmassnahmen) hingegen versucht, dem Hass zu begegnen, ohne die Meinungsfreiheit zu beschneiden. Dazu zählen Gegenrede und Aufklärung: Man widerspricht Hassbotschaften mit sachlichen oder empathischen Antworten, stellt alternative positive Narrative bereit und sensibilisiert die Öffentlichkeit etwa durch Bildungskampagnen. Der Hass soll also übertönt werden – nicht durch Zensur, sondern durch mehr konstruktive Stimmen. Genau hier setzt das ZHAW-Forschungsprojekt “Social Influencer:in – Mit wirksamer Gesprächsführung gegen Hass im Netz” an. Es beschreitet bewusst den “weichen” Weg: statt neue Gesetze zu fordern, schickt es engagierte Menschen als digitale Streetworker dorthin, wo der Hass tobt – in Kommentarspalten, Foren und soziale Netzwerke.

Digital Streetwork: Das Projekt «Social Influencer:in»

Das dreijährige ZHAW-Projekt (2022–2024) wird vom Institut für Delinquenz und Kriminalprävention der ZHAW Soziale Arbeit durchgeführt und vom Schweizerischen Nationalfonds gefördert. Ein interdisziplinäres Team aus Sozialarbeit, Psychologie und Informatik arbeitet dafür mit der Nichtregierungsorganisation NCBI Schweiz (National Coalition Building Institute) und der Eidgenössischen Kommission gegen Rassismus (EKR) zusammen. Gemeinsam haben sie eine neuartige Form digitaler Gemeinwesenarbeit entwickelt: Social Influencer:innen suchen aktiv nach hasserfüllten Diskussionen im Netz und greifen moderierend ein – wie Streetworker, nur eben online.

Kern des Projekts ist eine Gruppe von 13 Social Influencer:innen, grösstenteils Studierende der Sozialen Arbeit. Sie wurden in mehreren Modulen gründlich geschult und seit Projektstart supervisorisch begleitet. Eine zentrale Rolle spielt die Methodik der Gesprächsführung, die sie im Verlauf der Ausbildung erlernt haben – dazu gleich mehr. Zunächst richteten die Social Influencer:innen ihre Tätigkeit auf vier ausgewählte digitale Räume: zwei Soziale Medien (darunter die Plattformen Facebook und Instagram) sowie die Kommentarspalten zweier Online-Zeitungen. Dort suchten sie nach sogenannten toxischen Beiträgen, also aggressiven, beleidigenden oder vor Hass triefenden Kommentaren, und traten in die Diskussion ein. Von September bis Dezember 2024 – in einer intensiven Pilotphase – verfassten die Teilnehmenden auf diese Weise 4’443 gezielte Gegenrede-Kommentare. Das bedeutet: Tausende Male haben sie freundlich, aber bestimmt widersprochen, um der Hetze etwas entgegenzusetzen. Wichtig ist dabei die Abgrenzung: Die Social Influencer:innen sind keine Troll-Armee, die zum Gegenangriff bläst. Im Gegenteil, ihr Ziel ist es, die aufgeheizten Debatten zu deeskalieren, ohne die Meinungsfreiheit der ursprünglichen Verfasser:innen einzuschränken. Ihr Einsatz soll zeigen, dass ein anderer Ton möglich ist – und so die “Bühne”, die sich der Hass gebaut hat, Stück für Stück verkleinern.

Die Projektleiterin Judith Bühler von der ZHAW betont, dass Hate Speech die Demokratie untergräbt. Wenn Menschen sich aus Angst nicht mehr trauen, ihre Meinung zu sagen, gerät der offene Diskurs in Gefahr. „Das Ziel des Projekts besteht darin, eine positive und konstruktive Diskussionskultur im digitalen Raum zu fördern“, erklärt Bühler. Damit dieses Ziel erreicht werden kann, mussten jedoch einige praktische Herausforderungen gelöst werden. Eine davon war die Frage der Anonymität und Sicherheit der Studierenden: Wie schützt man die Engagierten vor persönlichen Anfeindungen? Die Antwort lieferte ein einfacher technischer Kniff – jede:r Social Influencer:in erhielt einen Projekt-Laptop und ein Avatar-Profil, also ein anonymisiertes Nutzerkonto. Dadurch blieben private und berufliche Identität getrennt, und die Studierenden mussten nicht mit ihrem echten Namen auftreten. Dieser Schutz erwies sich als sehr wichtig, denn selbst wenn die Social Influencer:innen selbst höflich bleiben, reagieren nicht alle Diskutierenden freundlich. Einige der angehenden Streetworker berichteten im Interview, dass sie die Konfrontation mit geballtem Hass durchaus emotional belastete – bei manchen habe der dauernde Zynismus zeitweilig sogar das eigene Menschenbild getrübt. Supervision und Coaching waren daher fest im Projekt verankert. Das Team reflektierte regelmässig gemeinsam die Erfahrungen. Dieses Teilen und Besprechen half, die negativen Erlebnisse einzuordnen und zu verarbeiten. Nicht zuletzt stärkte es den Zusammenhalt in der Gruppe – ein wichtiger Faktor, um trotz allem motiviert zu bleiben. „So etwas macht man nicht einfach aus Goodwill“, gibt Judith Bühler zu bedenken. Die Social Influencer:innen investierten viel Zeit und Nerven in ihre anspruchsvolle Tätigkeit. Dementsprechend müssten sie fair entlöhnt werden – hier sieht Bühler auch den Staat und die Plattformbetreiber in der Pflicht, Rahmenbedingungen zu schaffen, die solche innovative Formen der Sozialen Arbeit unterstützen.

Methoden der Gegenrede: Empathie, alternative Narrative, Diskursqualität

Wie genau spricht man nun am besten mit Wütenden oder Verbohrten im Netz? Pauschale Antworten gibt es nicht, aber das Projekt hat drei konkrete Kommunikationsmethoden entwickelt und erprobt. Diese Methoden – Empathie, alternative Narrative und Diskursqualität (DiQu) – wurden den Social Influencer:innen als Werkzeugkasten mit auf den Weg gegeben. Je nach Situation wendeten sie mal die eine, mal die andere Technik an, um auf einen Hasspost zu reagieren.

Die erste Methode, „Empathie: analoge Perspektivenübernahme“, setzt auf Mitgefühl und Menschlichkeit. Hier versucht der:die Social Influencer:in, sich in das Gegenüber hineinzuversetzen oder zumindest dessen Emotionen anzusprechen. Zum Beispiel könnte man auf einen hetzerischen Kommentar antworten, indem man zunächst Verständnis für die zugrundeliegende Frustration signalisiert („Ich kann verstehen, dass dieses Thema Angst und Ärger auslösen kann…“) und dann behutsam einen Perspektivenwechsel anbietet. Oft wird auch die Betroffenheit der Opfer ins Spiel gebracht: Man appelliert an die Empathie der Hasspostenden, indem man erläutert, wie sehr solche Worte verletzen können. Studien belegen, dass solche empathischen Gegenreden tatsächlich Wirkung zeigen können. In einem Feldexperiment auf Twitter gelang es mit empathiebasierten Antworten, bei einem Teil der Hasspostenden ein Umdenken anzustossen: Einige löschten im Nachhinein sogar ihre ursprünglich abgesetzten Hass-Tweets, und insgesamt sank die Zahl neuer Hasskommentare dieser Personen deutlich. Empathie kann also Brücken bauen – jedoch ist diese Methode sehr situativ und nicht jede:r ist zugänglich dafür.

Die zweite Strategie heisst „Alternative Narrative“. Dabei widerspricht man nicht direkt der hasserfüllten Aussage, sondern liefert ein Gegenerzählung, die ein positiveres Bild zeichnet. Wenn etwa jemand pauschal über „die Ausländer“ schimpft, könnte ein:e Social Influencer:in eine konkrete Geschichte erzählen, die dieses negative Klischee unterläuft – etwa von der Nachbarin mit Migrationshintergrund, die im Quartierhilfsnetz überdurchschnittlich aktiv ist, oder von Forschenden, die als Kinder zugewandert sind und heute an vorderster Front Pandemien bekämpfen. Solche persönlichen Anekdoten oder Gegenbilder können Vorurteile aufweichen, weil sie zeigen: Die Realität ist vielfältiger als das verzerrte Hass-Narrativ. Alternative Narrative werden bereits seit einigen Jahren in der Extremismusprävention gezielt eingesetzt, um etwa Radikalisierungspropaganda den Boden zu entziehen. Im Kontext Hate Speech funktionieren sie ähnlich: Die verzerrte „Story“ der Hater – alle X seien schlecht – wird durch eine andere Story herausgefordert, in der X ganz normal oder positiv vorkommen. Wichtig ist, dass solche Erzählungen nicht moralisierend mit dem Zeigefinger daherkommen, sondern subtil zum Nachdenken anregen.

Die dritte Methode nennt sich „DiQu: Fokus Diskursqualität“. DiQu steht für Diskussionsqualität und bedeutet, dass der:die Social Influencer:in ganz bewusst die Spielregeln einer fairen Debatte hochhält. Praktisch läuft das darauf hinaus, die Person auf der anderen Seite sachlich, aber deutlich auf Grenzüberschreitungen hinzuweisen. Ein Beispiel: Unter einer Nachricht zu Flüchtlingen schreibt jemand: „Ihr Gutmenschen wollt doch nur unsere Heimat zerstören!“ Ein:e Social Influencer:in mit DiQu-Ansatz würde hier z.B. entgegnen: „Ich möchte Sie bitten, andere nicht zu beschimpfen. Lassen Sie uns beim Thema bleiben – was genau beunruhigt Sie?“ Diese Art der Antwort markiert Grenzen des Sagbaren und ruft zu respektvollem Umgang auf. Man spricht also an, wie diskutiert wird, nicht nur worüber. Oft werden auch Faktenchecks oder sachliche Nachfragen eingesetzt, um die Diskussion weg von pauschalen Angriffen hin zu konkreten Argumenten zu lenken. Die DiQu-Methode ermahnt höflich zur Einhaltung von Standards (Höflichkeit, beim Thema bleiben, belegbare Fakten nennen) – im Grunde das, was in einer moderierten Talkshow der:die Moderator:in tun würde.

Alle drei Methoden – Empathie, alternatives Narrativ, Diskursqualität – gehören zur Soft Counter Speech. Sie schränken niemandes Redefreiheit ein, sondern werben um Einsicht und stellen kontrastierende Meinungen oder Fakten bereit. Dass dies nicht immer fruchtet, liegt auf der Hand. Dennoch zeigen erste Auswertungen, dass insbesondere alternative Narrative und DiQu durchaus kleine Durchbrüche erzielen konnten: Bei diesen Methoden reagierten die Diskussionspartner:innen in der Pilotphase öfter sachlich-neutral oder höflich auf die Intervention als beim empathischen Ansatz. Mit anderen Worten: Wer mit Fakten und konstruktiven Gegenbildern kontert oder klar höfliche Regeln einfordert, bekam tendenziell eher eine gemässigte Antwort als jemand, der „nur“ Empathie zeigte. Dies heisst nicht, dass Empathie unwichtig wäre – im Gegenteil, auch sie erzielte Erfolge, nur etwas seltener in Form direkt höflicher Erwiderungen. Möglicherweise reagieren einige Hasspostende auf ein mitfühlendes „Verstehe deinen Ärger…“ eher irritiert oder misstrauisch, während sie einen freundlichen Faktencheck oder eine Alternativgeschichte leichter akzeptieren können, ohne sich belehrt zu fühlen. Hier zeigt sich der Wert des Methoden-Mix: Die Social Influencer:innen konnten je nach Kontext und Persönlichkeit abwägen, welcher Ansatz erfolgversprechend scheint.

Entscheidend ist, dass die Gegenrede nicht primär die hartnäckigen Hater überzeugen muss, sondern auch das Umfeld adressiert. Die Projektverantwortlichen haben von Anfang an betont, dass sich ihr Ansatz bewusst vor allem an die grosse Masse der stillen Mitlesenden richtet. Selbst wenn der direkte Dialog mit einem Hass-Kommentator ergebnislos bleibt oder in Ironie und Sticheleien steckenbleibt, profitieren doch diejenigen, die den Austausch passiv verfolgen. Sie sehen, dass Widerspruch gegen Hetze möglich ist, dass jemand Flagge zeigt für Anstand und Fakten. Dieser Effekt ist schwer messbar, aber enorm wichtig: Die schweigende Mehrheit soll merken, dass das Netz nicht den Schreihälsen gehört, sondern dass es gemeinsame Gegenwehr gibt. Genau das war auch das Erfolgsgeheimnis der zivilgesellschaftlichen Initiative #ichbinhier in Deutschland, einer der Vorläufer und Inspirationen solcher Gegenrede-Projekte. Die Facebook-Gruppe #ichbinhier, gegründet 2017, wuchs rasch auf über 45’000 Mitglieder an. Ihre Mitglieder kommentierten koordiniert unter problematischen Posts und gaben sich gegenseitig Rückendeckung durch Likes und sachliche Beiträge. „Die sind laut, aber wir sind viele“ – so brachte es ein #ichbinhier-Aktivist auf den Punkt. Dieser Satz könnte ebenso gut über dem ZHAW-Projekt stehen.

Technik im Einsatz: KI-gestützte Hass-Erkennung

Die Social Influencer:innen agieren zwar als Menschen aus Fleisch und Blut, doch ohne technische Hilfe wäre ihr Einsatz kaum effizient machbar. Das Projekt hat deshalb ein eigenes Browser-Plugin entwickelt, das die Teilnehmenden bei ihrer Arbeit unterstützt. Diese Erweiterung namens Hyssop scannt die gewählten Plattformen nach potenziell toxischen Beiträgen und markiert entsprechende Stellen automatisch. Im Hintergrund arbeitet dabei ein Hate-Speech-Classifier, also ein maschinelles Lernmodell zur Erkennung von Hassrede. Hyssop erleichtert es den Social Influencer:innen, in der Flut von Kommentaren die wirklich problematischen schneller zu finden. Gleichzeitig dient das Tool der Begleitforschung: Alle Interventionen und Diskussionsverläufe werden systematisch erfasst und für die spätere Auswertung dokumentiert. Die Browser-Erweiterung wurde im Projektverlauf fortlaufend verbessert und an die Bedürfnisse der Nutzer:innen angepasst. Dennoch blieb die Schnelllebigkeit der Online-Diskussionen eine Herausforderung: Auf manchen Plattformen ändert sich die Darstellung oder Sortierung von Kommentaren ständig, was die Automatisierung erschwerte. Trotz kleiner technischer Hürden wurde Hyssop von den Social Influencer:innen als grosse Hilfe empfunden – sie lobten insbesondere die einfache Bedienbarkeit und den zuverlässigen Support durch das Tech-Team.

In Zukunft möchten die Forschenden die technische Unterstützung noch ausbauen. In einem nächsten Schritt soll Hyssop mit KI-basierten Antwortvorschlägen erweitert werden. Denkbar wäre etwa, dass die Software auf einen erkannten Hasskommentar automatisch einen passenden Gegenrede-Textvorschlag anbietet – natürlich stets überprüft und angepasst von der realen Person, bevor etwas gepostet wird. Solche intelligenten Assistenten könnten den Freiwilligen einen Teil der kognitiven Arbeit abnehmen und für gleichbleibend hohe Qualität der Antworten sorgen. Ähnliche Ansätze werden international bereits getestet: So arbeiten Forscher:innen daran, Algorithmen zu trainieren, die toxische Sprache nicht nur erkennen, sondern auch entschärfende Antworten generieren können. Allerdings steckt diese Technologie noch in den Kinderschuhen. Die Gefahr, dass KI unpassende oder missverständliche Vorschläge macht, ist nicht zu unterschätzen – daher wird im Projekt bewusst auf ein Mensch-in-der-Schleife-Prinzip gesetzt. Die Maschine soll assistieren, aber der Mensch bleibt inhaltlich verantwortlich.

Erste Erkenntnisse: Was wirkt gegen den Hass?

Nach Abschluss der intensiven Pilotphase Ende 2024 wurde das Projektteam nicht nur um tausende Erfahrungen reicher, sondern hatte auch eine Fülle von Daten in der Hand. In einer wissenschaftlichen Begleitstudie wurden die vorläufigen Ergebnisse analysiert, um zu prüfen, welche Wirkung die Gegenreden erzielten. Zunächst zeigte sich erwartungsgemäss: Der Ton in vielen Online-Diskussionen bleibt rau – es wäre illusorisch zu glauben, mit ein paar freundlichen Posts liessen sich alle Konflikte befrieden. Dennoch gab es messbare positive Effekte: Die Kommunikationsmethoden „Alternative Narrative“ und „DiQu“ führten häufiger zu neutral-sachlichen oder höflichen Reaktionen von Seiten der ursprünglichen Poster:innen als empathische Gegenreden. Dieses Resultat deckt sich interessanterweise teilweise mit der bereits erwähnten Twitter-Studie, in der Empathie zwar langfristig gut wirkte, aber Humor oder Belehrungen (bei ZHAW vergleichbar mit DiQu) keinen konsistenten Effekt hatten. Hier scheinen also die Kontexte eine Rolle zu spielen: In kurzen anonymen Twitter-Interaktionen mag Empathie der Schlüssel sein, während in ausführlicheren Facebook-Diskussionen ein strukturierter Hinweis auf die Diskursregeln erfolgreicher sein kann.

Eine weitere Erkenntnis des ZHAW-Projekts betraf die Resonanz im Umfeld: Die Social Influencer:innen stellten fest, dass ihre Beiträge selten direkte Antworten oder gar Dank von stillen Mitlesenden erhielten. In über 90 % der Fälle ergab die Analyse keinen unmittelbaren Bezug nachfolgenden Posts zu dem zuvor gesetzten Gegenrede-Beitrag. Das bedeutet, dass nur ein kleiner Teil der Diskussionsteilnehmenden direkt auf die Social Influencer:innen einging – sei es zustimmend oder ablehnend. Allerdings heisst das nicht, dass die Interventionen verpufften. Viele der von den Streetworkern initiierten Diskussionsthreads verliefen zwar kontrovers, aber immerhin sachlicher als vergleichbare Threads ohne Intervention. Oft gelang es, zumindest die gröbsten Entgleisungen einzudämmen oder die Aufmerksamkeit der Runde auf Fakten zu lenken, anstatt in rein emotionale Schlagabtausche abzugleiten. Und selbst wenn die ursprünglichen Hater uneinsichtig blieben, konnte durch beharrliches Nachfragen und Korrigieren zumindest ihre Reichweite begrenzt werden: Ein wütender Zwischenruf, dem sachlich widersprochen wird, bekommt weniger „Likes“ und Zustimmung als einer, der unwidersprochen stehen bleibt. Einige stille Leser:innen gaben in informellen Rückmeldungen ans Team an, dass sie die Gegenreden als ermutigend empfanden – sie fühlten sich nicht mehr so allein gelassen mit ihrem Unbehagen gegenüber dem Hass im Netz. Genau solche Rückmeldungen sind es, die das Team als Erfolg verbucht: Gegenrede wirkt – auch auf Mitlesende. Diesen Satz stellte Ende 2025 auch eine Studie der Stop Hate Speech-Initiative fest. Darin wurde hervorgehoben, dass empathische und respektvolle Antworten auf Hasskommentare nicht nur den Ton der aktuellen Diskussion verbessern, sondern bei unbeteiligten Beobachtenden die Bereitschaft erhöhen, selbst Zivilcourage zu zeigen.

Neben den Effekten auf die Online-Diskurse hat das Projekt auch viel über die Belastungen und Bedürfnisse der Social Influencer:innen selbst gelernt. Die Teilnehmenden beschrieben ihre Arbeit mit Hasskommentaren als zugleich herausfordernd und lehrreich. Einige hatten anfangs den Zeitaufwand unterschätzt und mussten erst lernen, die Tätigkeit mit Studium, Job und Privatleben zu koordinieren. Hilfreich war hier das feste Gerüst aus Schulungen und wöchentlichen Teamsitzungen, in denen Erfahrungen ausgetauscht wurden. Die Schulungsmodule wurden von den meisten als sehr bereichernd gelobt – insbesondere die interprofessionelle Mischung der Trainer:innen (aus IT, Psychologie, Kommunikation) und das praktische Üben der drei Gegenrede-Methoden. Auch Techniken zum Stressmanagement und Hintergrundwissen darüber, wo im Netz besonders viel Hass auftritt, gehörten zur Ausbildung. Als ermutigend empfanden viele die Information, dass die meisten Hasskommentare nur von sehr wenigen Personen stammen. Dieses Wissen – im Grunde eine statistische Tatsache – half mental, den Hass nicht als „Stimme der Mehrheit“ fehlzuinterpretieren, sondern als laute Ausnahme. Insgesamt blieben die Social Influencer:innen trotz aller Strapazen überzeugt, dass man durch solches Engagement etwas zum Positiven verändern kann. Viele würden wieder mitmachen, einige wünschen sich sogar, das Programm auszuweiten, damit kontinuierlich Feedback und Austausch möglich bleibt. All diese Erfahrungen flossen in den Abschlussbericht ein und sollen genutzt werden, um ähnliche Initiativen in Zukunft optimal zu gestalten.

Blick über die Grenzen: Schweiz, Deutschland, Österreich, Frankreich

Hate Speech macht nicht an Landesgrenzen halt – ebenso wenig der Wille, etwas dagegen zu unternehmen. Ein Vergleich der Situation und Gegenmassnahmen in der Schweiz und den Nachbarländern zeigt sowohl Gemeinsamkeiten als auch unterschiedliche Ansätze.

Schweiz: In der Schweiz gibt es keine spezielle „Hassrede-Gesetzgebung“ wie etwa in Deutschland, doch strafbare rassistische oder volksverhetzende Äusserungen sind bereits durch die Antirassismus-Strafnorm (StGB Art. 261bis) verboten. Die Schweizer Behörden setzen vermehrt auf Kooperation mit Zivilgesellschaft und Wissenschaft, um das Phänomen einzudämmen. So wurde 2020 die Meldestelle reportonlineracism.ch eingerichtet, wo Bürgerinnen und Bürger rassistische Inhalte im Netz direkt melden können. Daneben treten NGOs und Projekte in Aktion: Ein herausragendes Beispiel ist das Programm “Stop Hate Speech” der Frauenrechtsorganisation alliance F. Dieses wurde 2020 lanciert und kombiniert – ähnlich wie das ZHAW-Projekt – technische Hilfsmittel mit freiwilligem Engagement. Ein Algorithmus namens Bot Dog filtert verdächtige Kommentare, welche dann von geschulten Freiwilligen geprüft und mit Gegenkommentaren beantwortet werden. Die wissenschaftliche Begleitung durch die ETH Zürich und Universität Zürich zeigte bereits erste Erfolge: Empathische Gegenrede wirkt – sie kann die Verfasser dazu bewegen, ihre Wortwahl zu mässigen und reduziert nachweislich die Wahrscheinlichkeit weiterer Hassposts. Diese Erkenntnisse decken sich mit den Erfahrungen der Social Influencer:innen und unterstreichen, dass Soft Counter Hate Speech eine ernstzunehmende Ergänzung zu strafrechtlichen Schritten ist. Auf gesellschaftlicher Ebene wird in der Schweiz auch präventiv gearbeitet: Medienkompetenz-Schulungen und Sensibilisierungskampagnen sollen insbesondere Jugendlichen beibringen, Hass im Netz zu erkennen und dagegen Position zu beziehen.

Deutschland: Deutschland hat in den letzten Jahren mit dem Netzwerkdurchsetzungsgesetz (NetzDG) einen eher „harten“ Weg beschritten. Seit 2018 verpflichtet dieses Gesetz grosse soziale Plattformen dazu, offensichtlich strafbare Inhalte (z.B. Volksverhetzung, schwere Beleidigungen) innerhalb kurzer Zeit zu löschen, andernfalls drohen empfindliche Bussgelder. Das NetzDG hat einerseits die Meldung und Entfernung von Hate-Speech-Beiträgen beschleunigt, ist aber auch umstritten, weil Kritiker eine Einschränkung der Meinungsfreiheit befürchten. Ergänzend dazu gibt es nun Pläne für ein Gesetz gegen digitale Gewalt, das Opfern die Identifizierung und juristische Verfolgung von Online-Tätern erleichtern soll. Auf zivilgesellschaftlicher Ebene war Deutschland Vorreiter bei organisierten Gegenrede-Initiativen: Die Bewegung #ichbinhier wurde international zum Vorbild und erhielt 2017 den Grimme Online Award für ihre Verdienste um die digitale Diskussionskultur. Auch grosse Organisationen wie die Amadeu Antonio Stiftung engagieren sich mit Bildungsprogrammen, Ratgebern und Monitoring gegen online verbreiteten Hass. Eine Studie des Kompetenznetzwerks gegen Hass im Netz von 2024 unterstrich jüngst die politische Brisanz: Hass im Netz richtet sich in Deutschland besonders häufig gegen Menschen wegen ihrer politischen Haltung (41 % der Fälle) und Eigenschaften wie Aussehen (37 %) oder Gesundheit (24 %). Die Zahlen machen deutlich, dass es nicht nur Minderheiten trifft, sondern auch Menschen, die öffentlich Position beziehen. Die Reaktionen in Deutschland kombinieren daher repressives Vorgehen (Löschen, Anzeigen) mit dem Empowerment potenzieller Opfer und der Förderung von digitaler Zivilcourage. So gibt es Beratungsstellen wie HateAid, die Betroffene von Online-Hass unterstützen, und Vernetzungsprojekte wie “Das NETTZ”, das verschiedene Initiativen gegen Hass zusammenbringt, um Know-how auszutauschen.

Österreich: Österreich hat in Reaktion auf einige schwerwiegende Fälle von Cyber-Mobbing und Hassbotschaften ein ganzes “Hass im Netz”-Gesetzespaket geschnürt, das am 1. Januar 2021 in Kraft trat. Kernstück ist das Kommunikationsplattformen-Gesetz, das – ähnlich dem deutschen NetzDG – Online-Dienste verpflichtet, einen Meldemechanismus für rechtswidrige Inhalte bereitzustellen und rasch zu entfernen. Begleitet wurde dies von Anpassungen im Strafrecht, um Tatbestände wie Cyber-Stalking und Beleidigung im Netz schärfer zu ahnden. Erste Auswertungen deuten darauf hin, dass die Zahl der angezeigten Fälle in Österreich seither angestiegen ist – was einerseits auf mehr Hass hindeutet, andererseits aber auch auf gestiegenes Bewusstsein der Opfer, ihre Rechte wahrzunehmen. Laut Statistik Austria gaben 2023 31 % der Bevölkerung an, in den letzten drei Monaten auf Hasspostings oder extrem feindselige Inhalte im Netz gestossen zu sein. Unter Social-Media-Nutzenden lag dieser Wert mit 39 % deutlich höher, während Personen, die keine sozialen Netzwerke verwenden, deutlich seltener (20 %) auf solche Inhalte trafen. Die häufigsten Themen der Hasskommentare in Österreich sind – wie anderswo – politische Ansichten, gefolgt von Religion/Weltanschauung, Ethnie, sexueller Orientierung und Geschlecht. Um Gegenrede zu stärken, setzt man in Österreich auf Kooperation mit zivilgesellschaftlichen Stellen wie der NGO ZARA (Zivilcourage und Anti-Rassismus-Arbeit), die Meldestellen betreibt und Workshops für Jugendliche anbietet. Ausserdem beteiligen sich österreichische Engagierte an internationalen Bewegungen; so existiert analog zu #ichbinhier die Facebook-Gruppe #ichbinhier Österreich und eine Community #102gegentrolls, die aus der Jugendarbeit heraus entstanden ist. Die österreichische Regierung betont zudem die Bedeutung von Medienbildung – bereits in der Schule soll kritischer Umgang mit dem Internet und Courage gegen Online-Hass vermittelt werden.

Frankreich: Frankreich hatte 2020 versucht, mit dem sogenannten Avia-Gesetz eine harte Regulierung ähnlich dem NetzDG einzuführen, scheiterte jedoch teilweise am Verfassungsrat, der das geplante verpflichtende Schnell-Löschen als unverhältnismässig einstufte. Inzwischen setzt Frankreich vor allem auf die EU-weiten Regelungen wie den Digital Services Act (DSA), der ab 2024 gilt und Internetplattformen stärker in die Pflicht nimmt, Hass und Hetze zu moderieren. Auf operative Ebene spielt in Frankreich die Polizei-Meldestelle PHAROS eine grosse Rolle: 2022 wurden dort 1’078 Inhalte wegen Hass oder Diskriminierung gemeldet – ein deutlicher Anstieg gegenüber 643 Meldungen im Vorjahr. Die Regierung hat zudem mit der Einrichtung einer speziellen Staatsanwaltschaft für Hassdelikte online reagiert, um Ermittlungen zu bündeln. Gesellschaftlich regt sich auch in Frankreich Widerstand gegen die Verrohung im Netz. Nach schockierenden Fällen – etwa der beispiellosen Hasswelle gegen die Jugendliche Mila oder die tödliche Bedrohung des Lehrers Samuel Paty durch islamistische Hetze – gibt es breite Allianzen von NGOs, Politik und Tech-Unternehmen, um Prävention und Gegen-Narrative zu stärken. Eine französische Adaption der Ich bin hier-Bewegung existiert unter dem Namen #JeSuisLà (Ich bin da) und zählt mehrere tausend Engagierte. Ausserdem ist die französische Start-up-Szene aktiv: Das Unternehmen Bodyguard etwa bietet eine App an, die Nutzer vor Hassnachrichten schützt, und hat 2024 einen ersten Observatoire de la haine en ligne veröffentlicht. Daraus geht hervor, dass die Menge an Hassbotschaften in französischen sozialen Medien 2024 um 16 % zugenommen hat. Besonders betroffen sind die Kommentarspalten grosser Medienhäuser, wo im Schnitt 5,5 % aller Kommentare eindeutig hasserfüllt sind – hochgerechnet entspricht das über 4 Millionen Hasskommentaren pro Jahr allein auf den News-Seiten. Rund 40 % dieser hetzerischen Beiträge zielen pauschal mit allgemeiner Verachtung auf die veröffentlichte Information oder Personengruppe ab (sogenannte haine générique). Solche Zahlen haben in Frankreich die Sensibilität enorm erhöht. Initiativen gegen Cyber-Mobbing und Hate Speech – etwa von Grosskonzernen gesponserte Kampagnen – sind in den letzten Jahren zahlreich entstanden. Im Bildungsbereich wurde 2022 ein landesweiter Plan gestartet, um Schüler:innen gleich zu Beginn jedes Schuljahres über die Gefahren von Online-Hass und Cyber-Mobbing aufzuklären. Die französische Regierung appelliert zudem an die grossen Plattformen, ihrer gesellschaftlichen Verantwortung nachzukommen – sei es durch bessere Moderation oder Kooperation mit Projekten, die Gegenrede und positive Botschaften verbreiten.

Sozialdiakonie im digitalen Raum: Neue Rollen für Kirche und Gesellschaft

Das Projekt Social Influencer:in zeigt eindrücklich, wie soziale Arbeit im digitalen Raum aussehen kann. Hier engagieren sich Menschen für ein besseres Miteinander online – genau dort, wo heute viel Gemeinwesen stattfindet: in sozialen Netzwerken, Foren, Kommentarspalten. Für die Sozialdiakonie als kirchliche Praxis ergibt sich daraus ein wichtiges Lernfeld. Sozialdiakonisches Handeln bedeutete schon immer, zu den Menschen hinzugehen, die Unterstützung brauchen, und Gemeinschaft zu stärken. Im 21. Jahrhundert gibt es nun digitale Quartiere, die genauso Teil unseres Lebens sind wie das physische Wohnviertel. In diesen Online-Gemeinschaften brauchen wir ebenfalls Präsenz, Begleitung und Werteorientierung.

Besonders reformierte Kirchen, die traditionell einen starken Bezug zur freien Meinungsbildung und Volksbildung haben, können hier einen Beitrag leisten. Im Netz gilt es, eine Kultur der Nächstenliebe und des Respekts vorzuleben, gerade gegenüber Andersdenkenden. Sozialdiakon:innen in der Schweiz befassen sich bereits mit Themen wie Cyber-Mobbing in Jugendgruppen oder der Frage, wie man auf digitale Hilferufe reagiert. Die Erfahrungen des ZHAW-Projekts könnten in Aus- und Weiterbildung von kirchlichen Mitarbeitenden einfliessen – etwa indem man Gegenrede-Methoden in Trainingsmodule integriert. Denkbar wäre, dass kirchliche Jugendarbeiter:innen junge Menschen befähigen, sich im Netz couragiert gegen Hass zu stellen, sei es durch Empathie oder durch das Verbreiten hoffnungsvoller Gegen-Geschichten (passend zum Evangelium, das schliesslich auch ein gutes Narrativ gegen die Angst ist). Auf institutioneller Ebene könnte die Kirche Allianzen mit bestehenden Initiativen bilden, um digitale Zivilcourage zu fördern. In der Westschweiz beispielsweise gab es interreligiöse Projekte, wo junge Muslime und Christen gemeinsam Videos gegen Hate Speech produzierten – hier war die Rolle der Kirche die einer Vermittlerin und moralischen Unterstützung.

Ein weiterer Aspekt ist die Präventionsarbeit im Netz. Genauso wie Sozialdiakonie im Stadtteil Präventionsprojekte anbietet (gegen Einsamkeit, gegen Radikalisierung, gegen Sucht usw.), kann sie im digitalen Gemeinwesen vorbeugend tätig sein. Das kann heissen: Aufklärungsarbeit betreiben, etwa durch Blogbeiträge oder Webinare zu einem zivilisierten Umgangston, oder schlicht als Moderatorenfigur in Online-Foren präsent sein, die Werte wie Menschenwürde hochhält. Denkbar ist auch eine seelsorgerliche Komponente: Viele Menschen, die im Internet hasserfüllt auftreten, tun dies aus Gefühlen von Angst, Ohnmacht oder Identitätskrise. Hier könnte eine diakonische Haltung – die den Menschen hinter dem aggressiven Post sieht und ihm ebenfalls mit Empathie begegnet – Brücken bauen. Natürlich stösst diese Idee an Grenzen: Nicht jeder Wüterich ist dankbar für ein seelsorgerliches Gespräch. Trotzdem lohnt sich die Haltung, den Menschen nicht auf seinen Hass zu reduzieren. Diese Sichtweise kann aus christlicher Perspektive besonders betont werden.

Hass im Netz verletzt die Würde von Individuen und vergiftet das gesellschaftliche Klima – dem entgegenzutreten ist letztlich ein Ausdruck von Nächstenliebe und Verantwortung füreinander. Digitale Streetwork gegen Hate Speech ist deshalb nicht nur eine Spielerei der Hochschulen, sondern könnte zu einem festen Bestandteil moderner Sozialdiakonie werden. Der Ruf „Hier bin ich!“ – im digitalen Raum präsent, ansprechbar und schützend – entspricht dabei ganz dem diakonischen Grundauftrag, bei den Menschen da zu sein, besonders bei den verwundbaren und bedrohten. Im Kampf gegen den Hass im Netz sind Kirche und Diakonie also herausgefordert, laut und deutlich – oder manchmal leise und einfühlsam – zu sagen: Wir sind hier.

Material