Der Spieleentwickler Activision hat angekündigt, ein KI-basiertes System zur Überprüfung von Sprachchats in seiner bekannten Shooter-Reihe „Call of Duty“ einzuführen. Das System, ToxMod genannt, wurde von dem KI-Unternehmen Modulate entwickelt. ToxMod überwacht in Echtzeit die Sprachkommunikation zwischen Spielern und erkennt dabei Hassreden, Beleidigungen, Belästigungen und andere Verstöße gegen die Community-Richtlinien.
ToxMod wird zunächst in Nordamerika in den Spielen „Call of Duty: Modern Warfare 2“ und „Call of Duty: Warzone“ getestet. Mit der weltweiten Veröffentlichung des neuesten Teils, „Call of Duty: Modern Warfare 3“, am 10. November, wird ToxMod ebenfalls global ausgerollt und steht dann allen Spielern weltweit zur Verfügung.
Das ToxMod-System nutzt Technologien wie Sprachtranskription und Sentimentanalyse, um subtile Unterschiede zwischen schädlichen und unbedenklichen Äußerungen zu erkennen. Die endgültige Überprüfung erfolgt jedoch weiterhin durch menschliche Kundendienstmitarbeiter, um Fehlentscheidungen der KI zu vermeiden.