Community Manager*innen, die sich tagtäglich dem Hass der Menschen im Netz rumplagen müssen, brauchen dezidierte Unterstützung durch das Unternehmen und die Organisation für die sie arbeiten! Dieser Verantwortung, die sowohl auf arbeitsrechtlicher, als auch auf moralisch-ethischer Grundlage basiert, darf sich meiner Meinung nach kein Arbeitgebender mehr entziehen. Dennoch sieht die Realität oft noch ganz anders aus. Mehr schlecht als recht vorbereitete Menschen werden ohne Training und Vorstellung, welche psychischen Auswirkungen die Moderation von Hass haben kann, in die Kommentarspalten geschickt. Selbst erfahrene Community Manager*innen zerbrechen an fehlenden Ressourcen und Strukturen. Doch welche Basis braucht ein Community Management Team, dass regelmäßig mit Hassrede konfrontiert ist?
Dafür habe ich aus den Erfahrungen des letzten Jahrzehnts eine kleine Checkliste erstellt, die Ihr gerne für Euch nutzen könnt, Euren Vorgesetzten unter die Nase reiben dürft oder mit Eurem Team gemeinsam durchgehen könnt, um für Euch die beste Basis zu schaffen. Hier findet Ihr die Checkliste für effektives Community Management im Umgang mit Hassrede als PDF. Im folgenden zähle ich die einzelnen Punkte noch einmal auf.
Richtlinien und Regeln
Gibt es klar definierte Community-Richtlinien, die Hassrede und unangemessenes Verhalten ausdrücklich verbieten[1]?
Sind diese Richtlinien für alle Mitglieder der Community leicht zugänglich und verständlich formuliert?
Werden neue Mitglieder bei ihrem Beitritt auf diese Richtlinien hingewiesen?
Werden die Richtlinien konsequent durchgesetzt?
Moderationsprozesse
Gibt es einen festgelegten Prozess für die Moderation, der allen Community Manager*innen im Rahmen der Einarbeitung / einer Schulung vermittelt wurde?
Gibt es ein festgelegtes Verfahren zum Umgang mit Hassrede?
Gibt es ein einheitliches Verständnis im Team darüber, welche Äußerungen geduldet, beantwortet, ausgeblendet und gelöscht werden?
Gibt es regelmäßige Diskussionen über Fallbeispiele um diese den eben genannten Kategorien zuzuordnen?
Gibt es regelmäßige Trainingsrunden und Krisensimulationen, um Moderationsprozesse zu festigen?
Gibt es eine klare Eskalationskette für schwere oder wiederholte Verstöße?
Gibt es einen Prozess für das Melden von strafrechtlich relevanten Kommentaren?
Schulung und Sensibilisierung
Hat jedes Team-Mitglied mindestens eine Grundlagen-Seminar (intern oder extern) für die Community Moderation durchlaufen?
Fühlen sich die Community Manager*innen grundsätzlich sicher im Umgang mit Hassrede?
Werden regelmäßige Schulungen und Workshops zu relevanten Themen rund um Hassrede und Moderationstechniken angeboten?
Ist das Team mit den neuesten Trends und Techniken im Bereich der Hassrede und deren Bekämpfung vertraut?
Gibt es eine Supervision durch eine externe, neutrale Instanz?
Unterstützung und mentale Gesundheit des Teams
Ist das Team, sowie die Vorgesetzten für die möglichen mentalen Auswirkungen von Hassrede senisbilisiert?
Gibt es dezidierte Unterstützung / Maßnahmen für Teammitglieder, die regelmäßig mit Hassrede konfrontiert sind (z.B. psychologische Unterstützung, regelmäßige Pausen, regelmäßige Gesprächsrunden im Team[2])?
Werden Teammitglieder ermutigt, Vorfälle zu melden und Unterstützung anzufordern, wenn sie sich überfordert fühlen?
Gibt es Schulungen, um die Resilienz sowohl für das Individuum als auch im Team zu stärken?
Sind ausreichend Ressourcen im Team vorhanden?
Rechtskonformität
Ist das Team über die aktuellen rechtlichen Vorgaben und Gesetze bezüglich Hassrede informiert und halten sie diese ein?
Gibt es eine enge Zusammenarbeit mit rechtlichen Experten oder Beratern, um sicherzustellen, dass alle Maßnahmen rechtskonform sind?
Präventive Maßnahmen
Gibt es Programme oder Initiativen zur Förderung einer positiven und inklusiven Community-Kultur?
Werden gezielt regelkonform formulierte Kommentare mit Interaktion belohnt?
Werden Mitglieder für positives Verhalten belohnt oder hervorgehoben?
Agiert das Community Management als Vorbild für die gewünschte Kommunikationskultur?
Technische Unterstützung
Werden automatisierte Tools zur Erkennung und Filterung von Hassrede verwendet?
Sind diese Tools an konkreten Beispielen aus der Community angelernt, regelmäßig aktualisiert und auf dem neuesten Stand der Technik?
Sind die Tools auf die aktuellen Codes und Verklausulierungen von Hassrede trainiert?
Gibt es einen Plan B für den Fall, dass automatisierte Tools im Ernstfall versagen?
Feedback und Verbesserung
Werden Maßnahmen gegen Hassrede und deren Ergebnisse transparent und regelmäßig kommuniziert?
Gibt es Mechanismen zur Sammlung und Auswertung von Feedback von der Community hinsichtlich der Maßnahmen gegen Hassrede?
Werden diese Rückmeldungen regelmäßig analysiert und führen sie zu Verbesserungen im Management?
Kontinuierliche Überprüfung
Wird die Strategie und die Wirksamkeit der Maßnahmen gegen Hassrede regelmäßig überprüft und angepasst?
Gibt es festgelegte Zeiträume für die Überprüfung und Aktualisierung der Community-Richtlinien?
Gibt es konkrete Kennzahlen oder Messwerte in der Community Strategie, die Reduktion von Hassrede als Erfolg bewerten?
Fazit
Diese Liste erhebt keinerlei Anspruch auf Vollständigkeit und ich freue mich sehr auf Eure Ideen und Anregungen für die Ergänzung. Lass uns die Arbeitsbedingungen für Community Manager*innen ein Stück besser machen!
Warum Community Management meiner Meinung nach einer der bedeutsamsten Berufe im digitalen Bereich ist? Weil wir uns – bewusst oder unbewusst – der Verteidigung der Demokratie verschrieben haben und dafür sorgen, dass der Hass im Netz zumindest auf unseren Präsenzen keine Chance hat!
Dafür braucht es aber Rückhalt aus dem Unternehmen, Schulungen und Trainings für die Teams und einen Fokus auf die mentale Gesundheit der Mitarbeitenden.Das war die Quintessenz unserer Diskussion zum Thema “Communities ohne Hass! – Wie Community Management & empowernde Moderation Hass im Netz verdrängt”, die ich mit Marc Ziegele und Björn Kunter auf der re:publica führen durfte. Im Detail gab es noch die folgenden Diskussionspunkte:
1. Community Management startet mit dem Tun!
Es kann nicht sein, dass es 2024 noch unmoderierte Kommentarspalten gibt. Wer einen Raum im Netz anbietet, trägt die Verantwortung für dessen Inhalte, ganz unabhängig von den eigenen Ressourcen. Mindestmaß ist die Moderation von rechtlich relevanten Kommentaren. Besser noch ist eine CommunityModeration, die gemäßigte Diskussionsbeiträge mehr Sichtbarkeit gibt und so einen demokratischen Diskurs möglich macht.
2. Empowernde Moderation:
Eine Methode dafür ist die wissenschaftlich erprobte Methode “Empowernde Moderation”, die Marc auf dem Panel vorstellte. Das sogenannte KASI-Modell hilft hier gezielt dabei, problematische Beiträge effizient zu deeskalieren und fördert eine gute Gemeinschaft.
Eine ausführliche Darstellung der KASI-Methode findet ihr hier. Außerdem hat die Amadeu Antonio Stiftung auf Basis des KASI-Modells ein kostenloses Tool für Community Manager*innen entwickelt, mit dem ihr die Stile üben könnt. An dieser Stelle eine große Empfehlung von meiner Seite für beide Quellen. Und das nicht nur, weil das KASI-Modell den Ansatz, den ich jetzt seit fast 10 Jahren in meinen Community-Moderationstrainings vermittle, wissenschaftlich untermauert hat. 😊
3. Training und Vorbereitung:
Auf dem Panel waren wir uns einig – die wichtigste Grundlage für eine souveräne Moderation sind Vorbereitung, regelmäßige Schulungen und Trainings der Community Manager*innen. Angefangen bei teaminternen Vorbereitungen der Moderationsarbeit auf Basis von:
Mit Kommunikation und Fachabteilungen abgestimmten Sprechzetteln und FAQ zu allen Themen, die regelmäßig auftauchen
Festgelegten Richtlinien, welche Kommentare beantwortet, ignoriert, ausgeblendet, gelöscht und/oder gemeldet werden
Übungen, die auf Basis von Fallbeispielen unterschiedliche Antwort-Stile durchspielen
Krisensimulationen in Echtzeit
Krisenplänen und klaren Verantwortlichkeiten für den Ernstfall
Regelmäßigen Abstimmungsrunden, in denen Fallbeispiele der letzten Woche(n) durchgesprochen werden.
Dazu geben externe Schulungen, Simulationen und Supervision Sicherheit und verbessern die Qualität der Moderation.
4. Psychische Gesundheit:
Der Umgang mit Hassrede kann emotional belastend sein. Es ist eben nicht nur “das bisschen Kommentare auf Insta löschen”. Nicht nur Erfahrungswerte, sondern auch diverse Studien belegen, dass die Moderation von Hasskommentaren zu emotionaler Erschöpfung führen kann (z.B. Riedl et al., 2020). Darüber hinaus berichtete Marc von einer weiteren Studie, die zeigt, dass schon 5 Minuten Pause nach 20-minütiger Moderationstätigkeit das Wohlbefinden der Moderatorinnen messbar steigert.
Eine zweite wirksame Gegenmaßnahme ist Abwechslung. “Also nicht nur hässliche Kommentare moderieren, sondern gezielt nach bestärkenswerten Kommentaren Ausschau halten. Der Fokus auf das Positive gibt Community Manager*innen wieder Kraft.”
Ergo – Pausen und Abwechslung sind wichtige Maßnahmen, um sowohl die psychische Gesundheit als auch die Leistungsfähigkeit der Moderatorinnen zu erhalten. Das bedeutet, sowohl im Team als auch für die Individuen müssen Resilienzstrukturen geschaffen werden. Es muss bewusst Platz und Zeit für den Austausch geschaffen werden, sowohl organisationsintern als auch mit Branchenkolleginnen. Unternehmen müssen endlich die Verantwortung übernehmen, um die psychische Gesundheit ihrer Community Manager*innen proaktiv zu unterstützen. Eine ausführliche, psychologisch gestützte Abhandlung zum Thema Resilienz im Community Management findet ihr hier.
5. Safe(r) Spaces schaffen:
Online-Diskussionsräume sollten sichere Räume für alle Nutzerinnen sein. Dies erfordert strukturelle und soziale Maßnahmen sowie das Einbeziehen der Betroffenenperspektive. Dabei ist die Einschätzung der Betroffenen maßgeblich – wenn ein Mitglied der Community sagt, dass es eine Äußerung als verletzend empfindet, dann hat das Community Management sich damit auseinanderzusetzen.
Sub-Spaces und Selbsthilfegruppen können helfen, eine unterstützende Umgebung zu schaffen. Soziale Präsenz durch Community Manager*innen und klare Kommunikationswege können das Vertrauen stärken.
6. Technologische Unterstützung:
Mit der Diskussion über KI hätten wir ein ganzes Panel füllen können, wir wollten den Fokus aber bewusst auf die Themen davor legen. Darüber hinaus waren wir uns auf dem Panel relativ einig – KI kann das Community Management ganz wunderbar unterstützen, indem sie Kommentare vorsortiert, eindeutigen Hass wegmoderiert und Antwortoptionen vorschlägt. Dabei ist jedoch ein kritischer Umgang mit KI notwendig, einschließlich genauer Kenntnis der Trainingsdaten und Algorithmen sowie regelmäßiger manueller Überprüfung. Außerdem dürfen wir gerade beim Community Management eines nicht vergessen – echter Dialog und Beziehungsaufbau sind mit die größten Chancen, die diese Disziplin auszeichnen. Diese Aspekte ganz an die Maschine auszulagern, würde das Ganze ad absurdum führen.
Fazit
Unsere letzte Folie fasste noch einmal die Quintessenz der Diskussion zusammen: GIBT DEM HASS KEINE CHANCE! Community Management macht den Unterschied! Widmet euch dem Positiven / Bestärkenswerten Training & Vorbereitung sorgen für mehr Sicherheit der Community Manager*innen Selbstfürsorge hat oberste Priorität Schafft sichere Diskussionsräume für mehr Teilhabe und Meinungsvielfalt Seid Euch bewusst darüber, wie wichtig Ihr seid!
Danke an alle, die dabei waren und an der Diskussion teilgenommen haben! Ich gebe die Hoffnung auf ein besseres Netz nicht auf – dafür sind gut ausgebildete Community Manager*innen mit dem entsprechenden Rückhalt ein elementarer Schlüssel. Da insbesondere auch das Defizit an Strukturen in den Fragen des Publikums, als auch in den Gesprächen danach thematisiert wurde, habe ich dafür noch eine Checkliste für Community Management im Umgang mit Hassrede erstellt.
Vivian Pein ist erfahrene Social Media- und Community-Managerin und integriert Social Media in Firmenkulturen. Sie berät und referiert rund um die Themen Social Media- und Community-Management. In ihrer Freizeit organisiert Sie unter anderem die größte „Unkonferenz“ für Social Media- und Community-Manager, das CommunityCamp, und ist im Vorstand des Bundesverbandes Community Management e.V. für digitale Kommunikation und Social Media (BVCM).
Neueste Kommentare