Über 2.000 Hasskommentare gefiltert – Vitality zeigt, was im Esport schiefläuft

CS2_TEAM VITALITY
Der Esport hat ein toxisches Problem – das wissen alle, die sich länger als fünf Minuten in einem Twitch-Chat oder unter einem Match-Clip auf X bewegen. Doch selten wird dieses Problem so klar ausgeleuchtet wie jetzt: Team Vitality hat gemeinsam mit dem Technologieunternehmen Bodyguard erstmals einen eigenen Bericht über Online-Hass im Esport veröffentlicht.
Die Plattform fragster hat über den Bericht geschrieben. Der Report zeigt, was viele längst vermuten: Die Kommentarspalten sind kein Ort für Zartbesaitete. Über 2.000 schädliche Nachrichten wurden auf den offiziellen Kanälen des französischen Top-Teams erkannt und blockiert. Der Anteil toxischer Inhalte sank demnach auf 4,6 Prozent bei X und 2,5 Prozent auf Instagram – ein Fortschritt, aber kein Grund zur Entwarnung.
Zwischen Filter und Feingefühl
Der Bericht ist Teil des KARE-Programms, das Vitality 2023 mit Unterstützung von EVNIA gestartet hat. Ziel: Mentale Gesundheit im Esport sichtbarer machen, Aufklärung fördern und toxisches Verhalten nicht nur moderieren, sondern verstehen.
Die Bodyguard-Technologie analysiert Social-Media-Kommentare in Echtzeit und filtert sie nach Schweregrad. Was im ersten Moment nach Hightech-Lösung klingt, wirft beim genaueren Hinsehen Fragen auf: Nach welchen Kriterien entscheidet die Software, was „toxisch“ ist? Wann ist ein Kommentar noch Provokation – und wann schon Hassrede?
Im Bericht bleibt das unklar. Begriffe wie „hasserfüllt“, „unerwünscht“ oder „positiv“ werden genannt, aber nicht definiert. Dass zehn Prozent der Kommentare als „positiv“ gewertet wurden, sagt wenig, solange unklar bleibt, ob es sich um echte Unterstützung handelt oder bloß um neutrale Floskeln.
Mehr als ein Algorithmus
Trotz aller Fragezeichen: Der Ansatz von Vitality ist ein wichtiges Signal. Während viele Organisationen das Thema lieber wegmoderieren, versucht der französische Club, messbare Daten und Prävention zusammenzubringen. Es geht nicht nur um Technik, sondern auch um Verantwortung – und darum, dass Hate kein fester Bestandteil des Esports bleiben darf.
Der Bericht macht deutlich, dass sich durch gezielte Moderation und Aufklärung die Stimmung in Communitys verändern lässt. Aber er zeigt auch: Automatisierte Filter sind kein Ersatz für echten Kulturwandel. Wenn die Szene langfristig gesünder werden soll, braucht es Transparenz, Bildung und menschliche Haltung – nicht nur KI-Algorithmen, die Kommentare wegsortieren.
Ein Schritt – kein Ende
Vitality, Bodyguard und EVNIA liefern mit diesem Report einen ersten datenbasierten Blick in die Schattenseite des Esports. Doch wer über toxisches Verhalten spricht, darf sich nicht in Prozentzahlen verlieren. Entscheidend ist, was nach dem Filtern passiert: Wie Organisationen aufklären, wie sie mit Betroffenen umgehen, wie sie Communitys langfristig verändern.
Die toxische Kultur des Esports ist kein Naturgesetz. Aber sie wird bleiben, solange Hate als „Teil des Spiels“ abgetan wird. Vitalitys Report ist kein Abschluss, sondern ein Anfang – und hoffentlich ein Weckruf für die gesamte Branche.
Häufig gestellte Fragen zu Online-Toxizität im Esport
Was ist Esport?
Esport bezeichnet den professionellen Wettkampf in Videospielen, häufig organisiert in Ligen und Turnieren mit Preisgeldern und Teams.
Was bedeutet Online-Toxizität?
Online-Toxizität beschreibt beleidigendes, diskriminierendes oder feindseliges Verhalten in digitalen Räumen, etwa auf Social Media oder in Chats.
Was untersucht der Bericht von Team Vitality?
Der Report analysiert Kommentare auf den Social-Media-Kanälen von Vitality, um Ausmaß und Art toxischer Nachrichten zu erfassen.
Wie arbeitet die Bodyguard-Technologie?
Sie scannt Posts und Kommentare in Echtzeit, erkennt potenziell schädliche Inhalte und filtert sie automatisch aus.
Warum ist der Bericht umstritten?
Weil die Kriterien, nach denen Nachrichten als „toxisch“ oder „positiv“ bewertet werden, nicht transparent offengelegt wurden.