Hass im Netz als Unternehmen begegnen

Damals demokratisch, heute toxisch? – Der Wandel des Internets

Vor 15 Jahren war das Internet noch ein anderer Ort – zumindest in der Wahrnehmung vieler. Das Web 2.0 war die neue Realität geworden. Beleidigungen, Geschmacklosigkeiten oder Cyber-Mobbing existierten zwar schon, aber einen Großteil der User verband nach wie vor eine Vision in ihrer Kommunikation: Das Netz als demokratischer Raum des Austauschs, der Kreativität und der positiven Gemeinschaft; Plattformen wie Facebook, Twitter oder YouTube versprachen, jedem eine Stimme zu geben.

Es war die Zeit, in der Begriffe wie Netiquette* an Bedeutung gewannen und weiterentwickelt wurden. Ziel war ein respektvoller, höflicher Umgang im digitalen Raum, eine Art ungeschriebener Verhaltenskodex – unverbindlich selbstredend – für die neue, vernetzte Öffentlichkeit.

Im Jahr 2010 veröffentlichte dann der „Deutsche Knigge-Rat“, ein privater Kreis von Etikette-Experten, den „Social-Media-Knigge“ für das Web 2.0. Er fokussierte die sozialen Medien als eine andere Form von Vernetzung heterogener Communities als in den bis dahin üblichen Newsgroups, Mailinglisten oder Webforen. Das zwölf Punkte umfassende Programm sollte Belästigungen und Trolling schon im Kleinen vorbeugen und lebendige, humorvolle und angemessen distanzierte Kommunikation fördern.

„Das Web 2.0 startete mit der Vision des Netzes als demokratischer Raum des Austauschs, der Kreativität und der positiven Gemeinschaft.“

Hass ist kein Einzelfall mehr – sondern Alltag

14 Jahre später präsentiert Bundesfamilienministerin Lisa Paus die Ergebnisse der Studie „Lauter Hass – leiser Rückzug. Wie Hass im Netz den demokratischen Diskurs bedroht“. Die repräsentative Studie zeigt, dass Hass im Netz inzwischen alltäglich und Normalität geworden ist und tendenziell weiter zunimmt. Fast jede zweite Person in Deutschland (49 Prozent) wurde schon einmal online beleidigt. Ein Viertel (25 Prozent) der Befragten wurde mit körperlicher Gewalt und 13 Prozent mit sexualisierter Gewalt konfrontiert.

Die Folgen für die User sind immens und das nicht nur direkt in Form von Ängsten und Ärger, sondern auch indirekt: Die Studie belegt, dass Hass im Netz die Vielfalt im Internet merklich einschränkt und freie Meinungsäußerung regelrecht unterdrückt. Hinzu kommt, dass Hass im Netz auch Brennstoff für Gewalt im Alltag ist.

Die Realität „Hass im Netz“ stellt nicht nur Individuen, sondern auch Behörden und Unternehmen vor große Herausforderungen.

Zwischen Regulierung und Realität: Der Staat im Kampf gegen Hass

In Deutschland ist der Bund Geldgeber für mannigfaltige Initiativen gegen Hass im Netz, wie für das „Kompetenznetzwerk gegen Hass im Netz“ mit den fünf Trägern „Hate Aid“, „Das Nettz“, „Neue Deutsche Medienmacher*innen“, „Gesellschaft für Medienpädagogik“ und Kommunikationskultur“ und „Jugendschutz.net“.

Ein Rechtsstaat bietet die Möglichkeit, verbale Akte anzuzeigen, so kann z.B. schon ein einzelner Facebook-Kommentar eine Straftat sein. Außerdem ist es möglich, seine Zivilrechte, z.B. das Recht am eigenen Bild, vor Gericht einzuklagen. Doch wie funktionieren diese relativ bürokratischen Schritte im Einzelnen? Beratungsstellen, wie HateAid, helfen dabei, seine Möglichkeiten im Detail auszuloten und an der richtigen Stelle aktiv zu werden.

In Luxemburg beschränkt sich die staatliche Unterstützung hingegen im Wesentlichen auf ein einziges Instrument – BEE SECURE. In den Jahren 2023 und 2024 wurden über 860 URLs über diese Plattform gemeldet. In 575 Fällen leitete BEE SECURE die Informationen an die zuständigen Behörden weiter. Dennoch kam es nur in wenigen Fällen zu einer Verurteilung: Zwischen 2020 und 2024 wurden lediglich 23 rechtskräftige Urteile ausgesprochen.

Staaten sind auch darin gefragt, die „Orte“, wo Hass im Netz stattfindet, zu regulieren. Der Digital Services Act (DSA) gilt in der EU seit Februar 2024 und verpflichtet Plattformbetreiber u.a. zu Moderation. Die europäische Rechtslage ist damit relativ streng, vor allem im Vergleich zur USA. Hate speech muss in der EU zeitnah nach Kenntnisnahme gelöscht werden, für Nutzer muss es klar erkennbare Meldemöglichkeiten geben.

Die Stimmen zum Erfolg des DSA sind bisher gemischt, einerseits ist mehr Transparenz bei den tatsächlichen Aktionen von Netzwerken gegen Hate Content zu verzeichnen, da die Netzwerke über ihre Moderations-Aktionen kontinuierlich reporten müssen. Andererseits reißen Berichte darüber, dass Hassrede trotz Allem lange online sichtbar bleibt, nicht ab – eine engmaschige Überwachung der konsequenten Umsetzung des DSA kann die EU bisher nicht gewährleisten.

Zwischen Profit und Pflicht: Die Rolle der Plattformen

Emotionaler Content ist für große Netzwerke grundsätzlich erstrebenswert, denn er führt zu Reaktionen und Verbreitung – dazu zählt auch und insbesondere Hass, was von Trollfabriken längst in großem Stil ausgenutzt wird. In Anbetracht des Interpretationsspielraums, was Hass und Beleidigung tatsächlich und in Einzelfällen sind, wandeln die Policies von Netzwerken und Plattformen sowie deren Algorithmus-Ausgestaltungen auf einem schmalen Grat zwischen Menschenrechten und ihrem core business case. Dabei sind schon mehrere Richtungsänderungen vorgenommen worden, jüngst von Meta, medial verteidigt von Mark Zuckerberg persönlich.

Nicht tatenlos bleiben – was jeder tun kann

Bevor eine Internet-Straftat bei der Polizei angezeigt wird, nutzen viele zunächst Online-Beratungs-, Melde- und Beschwerdestellen. Die Initiative LOVE-Storm hält eine Liste von Stellen, an die man sich wenden kann vor, ebenso eine 10-Punkte-Anleitung, wie man ganz praktisch reagieren kann, wenn man auf Hass im Netz stößt. Hass im Netz muss nicht stillschweigend ertragen werden, seriöse Hilfestellung, um im Alltag gerüstet zu sein, findet sich an vielen Stellen, auch ganz niederschwellig, z.B. in Form von YouTube-Videos [Beispiel 1] [Beispiel 2] [Beispiel 3].

Wenn Hass die Kommentarspalte erreicht – was können Unternehmen tun?

Unternehmen wollen auf ihren offiziellen Kanälen in den Kommentaren im Kern das, was der „Social-Media-Knigge“ aus 2010 vorgab: Lebendigen, humorvollen und respektvollen Diskurs. Hass, ob juristisch relevant oder nicht, entdeckt kein Unternehmen gern in seinen Kommentarspalten.

Eine toneshift-Grafik zeigt die Kernpunkte einer Moderationsstrategie im Anbetracht von Hass im Netz:

Prävention beginnt vor dem Shitstorm

Zur PRÄVENTION gehören technische wie auch strategische Aspekte.
Auf technischer Seite bietet es sich an, die Algorithmen des jeweiligen Netzwerks zu nutzen, um Hass schneller zu identifizieren oder sogar automatisch auszublenden; z.B. bietet YouTube Studio verschiedene Optionen, Kommentare unter eigenen Videos auf „unangemessene Inhalte“ zu scannen und potenzielle Hass-Kommentare nicht ohne manuelle Prüfung freizuschalten.

Auch muss die menschliche Moderation einfach gesagt gut organisiert sein, mithilfe eines Schichtplans oder der Hilfe externer Agenturen für Community Management.

Strategie statt Spontanreaktion: Der Umgang mit Hass

Die strategische Vorbereitung hat das Ziel, alle Beteiligten am Social Media Auftritt ins Boot zu holen und darauf vorzubereiten, wie mit verschiedenen Situationen umgegangen werden kann. In welchen Fällen möchte man Kommentare sofort löschen, in welchen Fällen nur ausblenden – dies mag unterschiedliche Konsequenzen auslösen. Wann ist eine Antwort angezeigt und wer sollte/darf diese formulieren? Wie reguliert man den moderaten Einsatz von Textbausteinen? Wann muss an höhere Hierarchie-Ebenen eskaliert werden und auf welchem Weg und so weiter …

Bei der Erarbeitung einer eigenen Community Guideline spielen sowohl die Moderations-Ressourcen, die Unternehmenswerte als auch die konkreten Ziele der Kommunikation auf Social Media eine Rolle. Oft ist es vorteilhaft, die eigene Social Media Strategie und eine Community Guideline im Rahmen von Workshops mit Vertretern aller beteiligter Units unter professioneller Anleitung zu erarbeiten.

Wenn Hass auf dem eigenen Kanal auftritt, ist zeitnahes, aber kein übereiltes und spontanes Handeln erforderlich. Im Idealfall kann sich das Social Media Management in der KOMMUNIKATION mit Hatern an die vorbereitete Strategie halten. Die Erfahrung zeigt, dass eine sachliche, klare/unverrückbare aber unaufgeregte und nicht-missionarische Haltung Hass angemessen entgegentritt und die „schweigende Mehrheit“ der Mitleser angenehm abholt. Eine CURE-Studie für einen Telekommunikationskonzern aus 2024 brachte zutage, dass Hass zwar Gegenrede erfordert, aber das Wechseln in die Offensive nur mit viel Bedacht gewählt werden sollte – oft gießt ein ideologisierter Vorstoß nur mehr Öl ins Feuer und facht einen destruktiven Austausch wieder an – quasi eine moderne Interpretation von „don’t feed the troll!“. In anderen Gemengelagen, wie wenn beispielsweise dem Unternehmen oder dem Social Media Auftritt unstrittig ein nennenswerter Fehler unterlaufen ist, mag hingegen eine Stellungnahme, Erklärung und/oder Entschuldigung der Kritik den Wind aus den Segeln nehmen.

„Ein strategisch klar geleiteter Gebrauch der Klaviatur von Löschen, Antworten und Ignorieren ist die moderne Interpretation vieler Social Media Redaktionen von ‚don’t feed the troll!‘“

Nach dem Angriff: Hilfe, Reflexion, Anpassung

In der NACHSORGE ist es nicht nur angezeigt, im Alltagsbetrieb immer wieder die Effektivität des eigenen Umgangs mit Hass im Netz zu spiegeln und kontinuierlich Vorgehensweisen an geänderte Kommunikationstrends oder technische Ausgestaltung der Plattform anzupassen. Auch muss – insbesondere bei organisierten Hassattacken auf Individuen – den Betroffenen im oder außerhalb des Unternehmens Hilfe geleistet oder zumindest angeboten werden. Eventuell ist juristischer Beistand oder psychologische Beratung zum Umgang mit einer Hasswelle angemessen.

Starke Kanäle brauchen kluge Strategien – und Daten

Auf Dauer geht an einer kontinuierlichen ANALYSE des Traffics auf den eigenen Social Media Kanälen kein Weg vorbei. Eine validierte und strukturierte Datengrundlage, die nach und nach wächst, wird eine immer bessere Basis, um die richtigen Stellschrauben in PRÄVENTION und KOMMUNIKATION bei Vorfällen von Hass im Netz zu erkennen. Somit entsteht ein einzigartiger Erfahrungsschatz zu einer konstruktiven Kommunikation auf den eigenen Kanälen mit dem eigenen Publikum, der eigenen Blase und den üblichen Kritik- und Hass-Ansätzen zu den eigenen Themen, der auch bei personellen Wechseln in der Social Media Redaktion problemlos angezapft werden kann.

CURE Intelligence ist Ihr Ansprechpartner, diese gut gerüstete Ausgangssituation hinsichtlich Hass auf den eigenen Kanälen zu erreichen. Fragen Sie nach unseren Data Intelligence Services, um frühere Fälle auszuwerten und Tatsachen-basierte Handlungsempfehlungen zu erhalten. Erfahren Sie mehr über unsere Media Intelligence Services für ein 24/7 Monitoring Ihrer Kanäle inkl. individuellem Frühwarnsystem und nutzen Sie unsere mächtigen Marketing Intelligence Services für professionelle Unterstützung beim alltäglichen Community Management, für Kampagnenbegleitung sowie für Social Media Guideline- und Strategie-Workshops.

* Kofferwort aus „Netz“ und „Etikette“; Diesen Begriff gibt es seit den 80er-Jahren und er konzentrierte sich auch auf Umgangsformen, aber hauptsächlich auf technische Aspekte, zum Beispiel der Bedienung eines Newsreaders in einer Weise, die einfache Lesbarkeit für andere User ermöglicht.

Quellen und Verweise

  • https://www.cure-intelligence.com/loesungen/data-intelligence/
  • https://anwaltskanzlei-feuerhake.de/rechte-bei-rachevideos-und-nacktfotos-revenge-pornhttps://www.bee-secure.lu/de/publikation/netiquette/
  • https://de.wikipedia.org/wiki/Netiquette
  • https://knigge-rat.de/mitglieder/frank-heinrich/https://love-storm.de/10-tipps-gegen-hass-im-netz/
  • https://neuemedienmacher.de/wp-content/uploads/2019/10/Leitfaden-gegen-Hassrede-2019.pdf
  • https://www.anwalt.org/facebook-hasskommentare/
  • https://www.bmfsfj.de/bmfsfj/aktuelles/alle-meldungen/hass-im-netz-gefaehrdet-demokratie-236282
  • https://www.bosch-stiftung.de/de/story/gegen-hass-und-hetze-im-netz-was-unternehmen-wie-alba-dagegen-tun
  • https://www.handelsblatt.com/meinung/gastbeitraege/zuckerberg-verwandelt-facebook-in-eine-plattform-fuer-hass-und-hetze/100100904.html
  • https://www.jugendschutz.net/fileadmin/daten/publikationen/praxisinfos_reports/report_hass_gegen_junge_klimaaktivist_innen.pdf
  • https://www.taskcards.de/#/board/fe82ce6e-03af-4e62-b3a3-bac32101dcd0/view?token=4d350aeb-43ff-45d0-ac8e-2ffa6b32229c

Oberbegriff „Hass im Netz“

Hass im Netz wird als Oberbegriff für verschiedene Formen verbaler digitalisierter Gewalt gebraucht. Dazu gehören:

Hate Speech / Hassrede
Äußerungen, die Menschen oder Gruppen aufgrund von Eigenschaften wie Herkunft, Religion, Geschlecht, sexueller Orientierung oder Behinderung herabwürdigen, beleidigen oder zu Gewalt und Hass gegen sie aufrufen; häufig straf- und/oder zivilrechtlich relevant

toxic speech
destruktive Kommunikation, die absichtlich Individuen provoziert, beleidigt oder abwertet und dies direkt oder indirekt durch z.B. Sarkasmus; häufig nicht straf- und/oder zivilrechtlich relevant
(Wenn toxic speech anhaltend und systematisch wird, kann es zu Cybermobbing werden, das juristisch belangt werden kann.)

dangerous speech
Äußerungen, die Gewalt gegen eine Gruppe fördern oder legitimieren sollen, besonders in angespannten gesellschaftlichen Situationen; Sie ist oft nicht direkt gewalttätig, aber sie entmenschlicht, schürt Angst oder stellt Gruppen als Bedrohung dar; unter Umständen straf- und/oder zivilrechtlich relevant

Shit-Storms
plötzliche, massenhafte Welle an öffentlicher Empörung – meist in sozialen Medien – gegen eine Person, Organisation oder Marke, oft begleitet von heftiger Kritik, Beleidigungen oder Beschimpfungen; häufig nicht straf- und/oder zivilrechtlich relevant

RevengePorn
das Veröffentlichen von gefaktem oder echtem intimen Bildmaterials; häufig straf- und/oder zivilrechtlich relevant

Doxxing
Veröffentlichung privater Daten, wie Adresse oder Arbeitsstelle eines anonymen User-Profils; häufig straf- und/oder zivilrechtlich relevant

Online Stalking
das wiederholte, gezielte Verfolgen, Überwachen oder Belästigen einer Person über digitale Medien; straf- und/oder zivilrechtlich relevant

Account-Hacking /Identity-Hacking / Identitätsdiebstahl
digitaler Einbruch, also das unerlaubte Eindringen in Netzwerke oder Online-Konten, um Daten einer Person auszuspähen, zu stehlen, oder zu manipulieren; straf- und/oder zivilrechtlich relevant

Alle diese unterschiedlichen Gewaltformen haben gemeinsam, dass sie andere Menschen verbal erniedrigen, einschüchtern oder ausgrenzen (sollen).

Passende Themen

Teilen

XING
LinkedIn
Facebook
X
WhatsApp
Email

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert