Call of Duty bannt 350.000 Spieler für toxisches Verhalten und Rassismus – Will bald den Sprachchat überwachen

img
Mai
27
author image by | Gaming | 0 Comments | 27 Mai 2021

Activision feiert mit einem neuen Bericht die „besten Fans der Welt“ und verkündet 350.000 gebannte Accounts wegen toxischen Verhaltens innerhalb von 12 Monaten. Zudem geben die CoD-Macher einen Einblick, wie sie gegen Toxizität in Call of Duty vorgehen und was für die Zukunft geplant ist.

Was ist da los? Call of Duty hat einen Bericht über gebannte Accounts wegen toxischen Verhaltens vorgelegt (via callofduty.com). Insgesamt sperrten die Verantwortlichen um die 350.000 Accounts in vier CoD-Spielen:

im Battle Royale Warzonein Modern Warfare aus 2019in Black Ops Cold War aus 2020in Call of Duty: Mobile

In dem Bericht informiert der Publisher von Call of Duty – Activision – außerdem, warum sie Spieler gebannt haben, wie sie ihre Maßnahmen gegen toxisches Verhalten verbessert haben und welche Verbesserungen für die Zukunft geplant sind. MeinMMO zeigt euch die Details.

350.000 Accounts für rassistische Namen oder toxisches Verhalten gebannt

Warum wurden Spieler gebannt? Aus dem Bericht geht hervor, dass die 350.000 gebannten Accounts entweder aufgrund eines rassistischen Nicknames oder toxischen Verhaltens gebannt wurden. Dafür habe man die eigene Namens-Datenbank gründlich untersucht und die Meldungen von Spielern geprüft.

Insgesamt waren demnach gleich mehrere interne Teams bei Activision am Werk:

Anti-Toxizität-TeamsDurchsetzungs-TeamsTechnologie-Teams

Gemeinsam bannen die Teams auffälliges Verhalten, prüfen die Meldungen von Spielern und entwickeln neue Maßnahmen zur Bekämpfung von toxischem Verhalten in Call of Duty.

Wie haben sich die Maßnahmen in den letzten 12 Monaten verbessert? Der Fokus lag in den letzten 12 Monaten auf dem Text-Chat und den Spieler-Namen:

Einführung eines neuen In-Game-Filters, der potenziell kritische Nutzernamen, Clan-Tags oder Spieler-Profile findetImplementierung neuer Technologien, um potenziell kritischen Text-Chat zu filternDiese Filter wurden in 11 verschiedenen Sprachen eingeführt

Mehr Ressourcen im Kampf gegen toxisches Verhalten

Wie soll es weitergehen? Im Moment möchte Activision mehr von dem bieten, was sie aktuell schon gegen toxisches Verhalten unternehmen:

Verbesserung der Report-Funktion und mehr Moderation der Spieler-ReportingsMehr Ressourcen zur Unterstützung der Erkennung von toxischem Verhalten und der Durchsetzung von StrafenZusätzliche Überwachungs- und Backend-TechnologieAufräumen von Datenbanken, um Schutz-Systeme auf den aktuellen Stand zu bringenKonsistente und faire Überprüfung der DurchsetzungsrichtlinienVerbesserte Kommunikation mit der Community

Doch in Zukunft sollen die Systeme noch weiter gehen und einen größeren Schutz bieten.

So sollt ihr Werkzeuge an die Hand bekommen, mit denen ihr euch selbst vor toxischem Verhalten schützen könnt. Der Bericht wird an dieser Stelle nicht konkret, doch es wird deutlich, dass ihr selbst ein wenig Kontrolle darüber bekommen sollt, was ihr während eures Gameplays von toxischen Spielern zu sehen bekommt.

Diese Maßnahmen sollen zusammen mit einem strikten „Durchsetzungsansatz“ kombiniert werden. Es könnten also bald Regeln zusammen mit festgelegten Strafen eingeführt werden – wer sich daneben benimmt und vom System erwischt wird, hat dann mit Strafen zu rechnen.

Und da geht es nicht nur um Nicknames, Spieler-Reportings und den Text-Chat wie bisher. Auch der Sprachchat soll mehr kontrolliert werden, um Hass-Reden, Rassismus, Sexismus und Belästigung aufzuspüren und zu bestrafen.

Gibt es konkrete Infos zu Sprachchat-Maßnahmen? Das lässt der Bericht offen und geht nicht weiter darauf ein. Klar ist: Activision sucht einen Weg, um toxisches Verhalten im Sprachchat zu identifizieren und zu sanktionieren. Auf welche Technologie oder Maßnahmen Call of Duty dabei setzen möchte, ist nicht klar.

Möglich wäre eine Anwendung wie beim Shooter-Konkurrenten Valorant. Entwickler Riot nimmt den Voice-Chat auf und prüft den Chat-Verlauf, sollte ein Reporting eines Spielers zum jeweiligen Match eingehen.

Viele „Call of Duty“-Spieler haben bereits Erfahrungen mit toxischem Verhalten im Spiel gemacht. Wenn ihr regelmäßig in den offenen Sprach-Chats unterwegs seid oder oft mit unbekannten Spielern ins Match geht, kennt ihr sicher die Probleme. Das kompetitive Umfeld fördert häufig negative Gefühle, wenn es mal nicht so rund läuft und Spieler mit geringer emotionaler Kontrolle lassen ihren schlechten Gedanken freien Lauf.

Dass Activision mehr gegen toxisches Verhalten in Call of Duty machen möchte, ist eine positive Entwicklung und auch die Ankündigungen hören sich vielversprechend an.

Was sagt ihr zu den angekündigten Maßnahmen? Meldet ihr überhaupt regelmäßig Spieler, die mit ihrem Verhalten über die Stränge schlagen? Oder verfahrt ihr eher nach dem Motto „leben und leben lassen“? Diskutiert mit uns in den Kommentaren auf MeinMMO.

Der Beitrag Call of Duty bannt 350.000 Spieler für toxisches Verhalten und Rassismus – Will bald den Sprachchat überwachen erschien zuerst auf Mein-MMO.de.

Kürzlich aktive Nutzer

Profilbild von Rioma
Profilbild von SgtReflexXx
Profilbild von zombiemax10
Profilbild von Zwix01
Profilbild von VTRon_exe
Profilbild von Manix
Profilbild von mathestudent
Profilbild von Rustling_Alex
Profilbild von VIG.Avi8ore
Profilbild von Putze
Profilbild von Gizilein
Profilbild von HACOUR

Discord-Viewer

Ts-Viewer