Community Manager*innen, die sich tagtäglich dem Hass der Menschen im Netz rumplagen müssen, brauchen dezidierte Unterstützung durch das Unternehmen und die Organisation für die sie arbeiten! Dieser Verantwortung, die sowohl auf arbeitsrechtlicher, als auch auf moralisch-ethischer Grundlage basiert, darf sich meiner Meinung nach kein Arbeitgebender mehr entziehen. Dennoch sieht die Realität oft noch ganz anders aus. Mehr schlecht als recht vorbereitete Menschen werden ohne Training und Vorstellung, welche psychischen Auswirkungen die Moderation von Hass haben kann, in die Kommentarspalten geschickt. Selbst erfahrene Community Manager*innen zerbrechen an fehlenden Ressourcen und Strukturen. Doch welche Basis braucht ein Community Management Team, dass regelmäßig mit Hassrede konfrontiert ist?
Dafür habe ich aus den Erfahrungen des letzten Jahrzehnts eine kleine Checkliste erstellt, die Ihr gerne für Euch nutzen könnt, Euren Vorgesetzten unter die Nase reiben dürft oder mit Eurem Team gemeinsam durchgehen könnt, um für Euch die beste Basis zu schaffen. Hier findet Ihr die Checkliste für effektives Community Management im Umgang mit Hassrede als PDF. Im folgenden zähle ich die einzelnen Punkte noch einmal auf.
Richtlinien und Regeln
- Gibt es klar definierte Community-Richtlinien, die Hassrede und unangemessenes Verhalten ausdrücklich verbieten[1]?
- Sind diese Richtlinien für alle Mitglieder der Community leicht zugänglich und verständlich formuliert?
- Werden neue Mitglieder bei ihrem Beitritt auf diese Richtlinien hingewiesen?
- Werden die Richtlinien konsequent durchgesetzt?
Moderationsprozesse
- Gibt es einen festgelegten Prozess für die Moderation, der allen Community Manager*innen im Rahmen der Einarbeitung / einer Schulung vermittelt wurde?
- Gibt es ein festgelegtes Verfahren zum Umgang mit Hassrede?
- Gibt es ein einheitliches Verständnis im Team darüber, welche Äußerungen geduldet, beantwortet, ausgeblendet und gelöscht werden?
- Gibt es regelmäßige Diskussionen über Fallbeispiele um diese den eben genannten Kategorien zuzuordnen?
- Gibt es regelmäßige Trainingsrunden und Krisensimulationen, um Moderationsprozesse zu festigen?
- Gibt es eine klare Eskalationskette für schwere oder wiederholte Verstöße?
- Gibt es einen Prozess für das Melden von strafrechtlich relevanten Kommentaren?
Schulung und Sensibilisierung
- Hat jedes Team-Mitglied mindestens eine Grundlagen-Seminar (intern oder extern) für die Community Moderation durchlaufen?
- Fühlen sich die Community Manager*innen grundsätzlich sicher im Umgang mit Hassrede?
- Werden regelmäßige Schulungen und Workshops zu relevanten Themen rund um Hassrede und Moderationstechniken angeboten?
- Ist das Team mit den neuesten Trends und Techniken im Bereich der Hassrede und deren Bekämpfung vertraut?
- Gibt es eine Supervision durch eine externe, neutrale Instanz?
Unterstützung und mentale Gesundheit des Teams
- Ist das Team, sowie die Vorgesetzten für die möglichen mentalen Auswirkungen von Hassrede senisbilisiert?
- Gibt es dezidierte Unterstützung / Maßnahmen für Teammitglieder, die regelmäßig mit Hassrede konfrontiert sind (z.B. psychologische Unterstützung, regelmäßige Pausen, regelmäßige Gesprächsrunden im Team[2])?
- Werden Teammitglieder ermutigt, Vorfälle zu melden und Unterstützung anzufordern, wenn sie sich überfordert fühlen?
- Gibt es Schulungen, um die Resilienz sowohl für das Individuum als auch im Team zu stärken?
- Sind ausreichend Ressourcen im Team vorhanden?
Rechtskonformität
- Ist das Team über die aktuellen rechtlichen Vorgaben und Gesetze bezüglich Hassrede informiert und halten sie diese ein?
- Gibt es eine enge Zusammenarbeit mit rechtlichen Experten oder Beratern, um sicherzustellen, dass alle Maßnahmen rechtskonform sind?
Präventive Maßnahmen
- Gibt es Programme oder Initiativen zur Förderung einer positiven und inklusiven Community-Kultur?
- Werden gezielt regelkonform formulierte Kommentare mit Interaktion belohnt?
- Werden Mitglieder für positives Verhalten belohnt oder hervorgehoben?
- Agiert das Community Management als Vorbild für die gewünschte Kommunikationskultur?
Technische Unterstützung
- Werden automatisierte Tools zur Erkennung und Filterung von Hassrede verwendet?
- Sind diese Tools an konkreten Beispielen aus der Community angelernt, regelmäßig aktualisiert und auf dem neuesten Stand der Technik?
- Sind die Tools auf die aktuellen Codes und Verklausulierungen von Hassrede trainiert?
- Gibt es einen Plan B für den Fall, dass automatisierte Tools im Ernstfall versagen?
Feedback und Verbesserung
- Werden Maßnahmen gegen Hassrede und deren Ergebnisse transparent und regelmäßig kommuniziert?
- Gibt es Mechanismen zur Sammlung und Auswertung von Feedback von der Community hinsichtlich der Maßnahmen gegen Hassrede?
- Werden diese Rückmeldungen regelmäßig analysiert und führen sie zu Verbesserungen im Management?
Kontinuierliche Überprüfung
- Wird die Strategie und die Wirksamkeit der Maßnahmen gegen Hassrede regelmäßig überprüft und angepasst?
- Gibt es festgelegte Zeiträume für die Überprüfung und Aktualisierung der Community-Richtlinien?
- Gibt es konkrete Kennzahlen oder Messwerte in der Community Strategie, die Reduktion von Hassrede als Erfolg bewerten?
Fazit
Diese Liste erhebt keinerlei Anspruch auf Vollständigkeit und ich freue mich sehr auf Eure Ideen und Anregungen für die Ergänzung. Lass uns die Arbeitsbedingungen für Community Manager*innen ein Stück besser machen!
[1] Ausführlich dazu hier https://der-socialmediamanager.de/grundregeln-fur-gute-tonalitat-community/
[2] Siehe dazu auch ausführlich https://der-socialmediamanager.de/selbstfursorge-achtsamkeit-community-management/
Neueste Kommentare