
Tech 15 Set
Os jogos multiplayer do gênero de tiro em primeira pessoa, infelizmente, são conhecidos pela toxicidade de seus jogadores em lobbies e chats de voz. As desenvolvedoras tentam reprimir esse comportamento e, agora, recorreram a inteligência artificial para tal.
A Activision anunciou uma parceria com a empresa Modulate para trazer a moderação de chat de voz no jogo para seus títulos. O sistema usará uma tecnologia de IA chamada ToxMod para identificar discursos de ódio, discriminação e assédio em tempo real.
A IA ToxMod teve seu lançamento beta inicial na América do Norte nesta semana nos games Call of Duty: Modern Warfare II e Call of Duty: Warzone. O teste vai servir de base para um “lançamento mundial completo” (não inclui a Ásia) em 10 de novembro.
Vale notar que o lançamento global da ferramenta chega junto com o Call of Duty: Modern Warfare III, a nova entrada deste ano na franquia. Infelizmente, o comunicado da Modulate não incluiu muitos detalhes sobre como exatamente a ToxMod funciona.
Entretanto, o site da empresa observa que a ferramenta “faz a triagem do chat de voz para sinalizar mau comportamento, analisa as nuances de cada conversa para determinar a toxicidade e permite que os moderadores respondam rapidamente a cada problema".
É importante citar que a ferramenta, ao menos por enquanto, não vai tomar medidas contra os jogadores com base em seus dados, mas apenas enviará relatórios para os moderadores da Activision. O envolvimento humano continuará com a palavra final.
E você, gostou dessa novidade? Conta pra gente nos comentários logo abaixo!
Celular mais rápido! Ranking TudoCelular com gráficos de todos os testes de desempenho
Celular com a melhor bateria! Ranking TudoCelular com todos os testes de autonomia
Nada de Black Fraude! Ferramenta do TudoCelular desvenda ofertas falsas
Microsoft destaca novos recursos na build 26100.1876 do Windows 11 24H2
Comentários