Aviso
Este conteúdo é para maiores de 18 anos. Se tem menos de 18 anos, é inapropriado para você. Clique aqui para continuar.

Nerdices

Inteligência artificial ajuda a combater bullying e racismo em partidas de videogames

Ferramenta de análise de termos ofensivos foi desenvolvida pela Intel

Torneio IEM Chicago: Counter-Strike: Global Offensive
Torneio IEM Chicago: Counter-Strike: Global Offensive - ESL/Helena Kristiansson
 
  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

Um dos principais motivos pelos quais os videogames ainda não são amplamente aceitos por todos é o estereótipo de que eles podem ser agressivos para muitos internautas –e, especialmente, para as minorias. De fato, os jogadores precisam lidar com uma toxicidade, como explicam os profissionais da área, que vão de xingamentos até o racismo, machismo e a homofobia dentro do ambiente online.

Pensando na melhor experiência dos usuários e em erradicar essa visão sobre a comunidade gamer, a Intel e a empresa Spirit AI desenvolveram uma ferramenta que usa inteligência artificial para denunciar comportamentos tóxicos em transmissão ao vivo e chat de games.

"O assédio e bullying se tornam uma barreira para muitas pessoas, independentemente se você é a vítima ou simplesmente um observador que vê como isso afeta outras pessoas", disse a especialista de desenvolvimento de negócios da Intel, Brittany Williams, em entrevista ao F5.

Para ela, a toxicidade e a falta de representatividade de minorias nos games são os dois principais problemas dentro desta comunidade. "A tecnologia é um ótimo caminho para ajudar a monitorar esse comportamento tóxico."

Williams destaca a parceria com a Spirit AI no desenvolvimento de um conceito chamado "machine learning" [aprendizado automático, em tradução livre] e inteligência artificial para detectar esse comportamento. "É uma ferramenta de monitoramento, e se você pode monitorar esses canais, você pode torná-los mais seguros para todos também."

A ferramenta, chamada de “Ally”, já é usada por empresas de jogos para detectar assédio buscando por palavrões, por exemplo. Ela é limitada aos textos, mas a ideia é que seja inteiramente ampliada pela Intel para a fala humana. Além disso, ela considera que uma conversa possa ser um bate-papo casual entre amigos, impossibilitando mal-entendidos.

"Tentamos filtrar casos de bullying e detectar o que está acontecendo. Não queremos eliminar um jogador que falou um palavrão durante o jogo, mas queremos um jogo mais limpo, porque há crianças no game. Então, classificamos o que pode ser ofensivo para alguém", diz Hernan Quijano, gerente de vendas de gaming na Intel Corporation. "Eu jogo desde novo e, às vezes, você encontra algo que não é agradável. Agora estamos tentando, com a tecnologia, criar espaços melhores."

Grandes empresas como Twitch, Blizzard, Riot Games, Epic Games (desenvolvedora do jogo Fortnite) e Microsoft também já declararam sua guerra anti-toxicidade no universo gamer. Junto à Intel, elas integram uma aliança de mais de 30 empresas chamada “Fair Play Alliance”, que visa desenvolver pesquisas e encorajar o ambiente saudável dentro dos jogos.

"Acho que as pessoas são humanas, no final do dia. E pode ser mais confortável se esconder atrás do escudo de um computador e apenas digitar seus sentimentos. Às vezes, essa falta de interação humana deixa as pessoas mais confortáveis para expressar suas negatividades”, conclui Williams

Final do conteúdo
  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Ver todos os comentários Comentar esta reportagem