Jogos online para computador, console e/ou smartphone reunem dezenas de milhões de jogadores ao redor do mundo. Os títulos mais populares superam a casa da centena de milhões de usuários. Essas comunidades misturam pessoas de todas as idades, inclusive crianças e adolescentes, que podem conversar entre si por meio de ferramentas de interação e socialização disponíveis dentro dos jogos, via texto, áudio e, em alguns casos, vídeo em tempo real. Com um público tão vasto e diverso, os games acabam virando palco para comportamentos inapropriados e para a prática de crimes. Há casos de assédio moral, assédio sexual, pedofilia, roubo de identidade, extorsão, sequestro de contas, exposição da privacidade, trotes variados e até recrutamento de terroristas. Isso macula a imagem das plataformas e faz com que percam jogadores. Os games costumam investir em soluções de moderação do seu ambiente, seja com humanos ou com inteligência artificial, mas não tem sido suficiente para resolver o problema. Por isso, uma dupla de empreendedores brasileiros residentes no Vale do Silício, nos EUA, desenvolveu a GamerSafer, uma solução com abordagem diferente, cujo objetivo é melhorar o processo de matching dos jogadores.
“A maioria das soluções hoje em dia são de moderação, seja com humanos ou com IA. As plataformas de jogos monitoram as interações na tentativa, muitas vezes frustrada, de identificar aquelas com potencial danoso e interrompê-las. O desafio dessa abordagem é a quantidade de interações, que é de bilhões por dia. Mesmo com ajuda de IA é necessário um exército para identificar os riscos e agir a tempo. Quantos segundos ou minutos é razoável para um predador ficar em contato com uma criança? Outro desafio: é difícil fazer um bom trabalho de moderação sem entender o contexto. Se somos dois amigos adultos jogando e você me xinga quando perde, isso faz parte da experiência e não tem problema. Mas se na mesma sala de jogo tem um garoto de 14 anos, não é legal. O contexto social muda completamente o que é aceitável do que não é. É difícil dar conta disso diante da escala dos jogos e das pequenas nuances”, comenta Rodrigo Tamellini, um dos cofundadores e CEO da GamerSafer ao lado de outra cofundadora e COO da startup, Maria Tamellini, durante conversa com Mobile Time.
Em vez de focar na moderação, a solução da GamerSafer procura aperfeiçoar o mecanismo de matching dos usuários dentro do jogo. Isso começa pelo controle no processo de autenticação, que requer uma foto do rosto do jogador, para que seja catalogado e possa ser usado com reconhecimento facial a cada acesso. É feita uma análise biométrica da face, procurando identificar o gênero e a idade do usuário, informações que serão consideradas no processo de matching. Além disso, a GamerSafer leva em conta o histórico do jogador na plataforma, analisando uma série de critérios sobre seu comportamento dentro do ambiente do game. Com base em tudo isso, a solução ajuda o jogo a aproximar jogadores cujo estilo e personalidade combinem.
“Hoje as plataformas botam juntas pessoas com a mesma proficiência no jogo e cuja rede tenha a mesma latência do servidor. Às vezes levam em conta a mesma região geográfica também. A nossa tecnologia fornece mais contexto para essas ferramentas colocarem juntos jogadores que tenham afinidade dentro do game. Por que colocar um cara de 40 anos numa turma de 14 anos de Fortnite? Ou juntar um jogador extremamente competitivo com outro casual, que não leva a sério o jogo? Ou um com histórico de comentários sexistas na mesma sala com uma menina?”, explica o executivo. “Nosso ângulo é inovador: em vez de olhar para a moderação, preferimos entender o perfil de cada usuário, identificá-lo e autenticá-lo antes de ele entrar no jogo. Melhorando o matching de jogadores prevenimos que interações ruins aconteçam. A gente consegue erradicar alguns problemas e minimizar bastante a toxicidade. Nossa missão é tornar o ambiente de jogos mais seguro, especialmente para jovens e crianças”, complementa.
Cabe a cada plataforma decidir o que fazer diante do comportamento inapropriado de de um jogador. “É como um bureau de crédito. Repassamos as informações, mas a estratégia de matching é de responsabilidade do game”, compara. Jogadores mais agressivos talvez sejam colocados juntos, ou em um grupo mais maduro. Em casos extremos, como o cometimento de crimes, o jogador pode ser banido e a polícia, alertada.
Com o uso de reconhecimento facial na autenticação, um usuário que tiver sido banido não consegue entrar novamente no jogo, ainda que tente criar uma nova conta. E outras plataformas que usem a GamerSafer podem decidir se aceitam ou não alguém que tenha sido expulso de outro jogo.
Vale destacar que os dados dos jogadores são tratados de forma anônima e não são coletados dados pessoais. A GamerSafer está de acordo com as novas leis relacionadas ao tema, como a europeia GDPR e a brasileira LGPD.
Segurança reduz churn
“O que acontece em maior escala é o dano emocional, que pode evoluir para dano fisico. Mas não minimizamos os desafios dos danos emocionais. 68% dos jogadores de 14 a 21 anos já sofreram algum tipo de ameaça física ou assédio contínuo e severo. É algo que faz parte dos jogos on-line. E 23% deles acabam jogando menos ou deixando de jogar um game em função disso. O cuidado com essas comunidades é algo que os jogadores buscam”, relata Maria Tamellini. Ela ressalta que comentários agressivos e bullying dentro do ambiente dos jogos não incomoda apenas as vítimas, mas também quem testemunha tais atitudes. “A experiência se torna negativa para os outros também”, alerta.
Para as plataformas de jogos, é de suma importância garantir uma experiência positiva para todos. “Existem indícios de que a pessoa que sofre assédio joga menos ou sai do jogo. O churn de usuários é a principal perda de faturamento. Alguns jogos têm índice de churn elevadíssimo. Em um mercado super-competitivo, com custo de aquisição alto, o churn representa uma significativa perda de dinheiro”, argumenta. Outras razões para se adotar uma plataforma de aperfeiçoamento do matching como a GamerSafer são o alto custo do gerenciamento de reclamações; o risco da perda de reputação; e a possibilidade de reduzir a faixa etária do público alvo com a garantia de que todos terão uma experiência segura, listam os dois empreendedores.
Modelo de negócios e história
A versão beta do GamerSafer ficou pronta em dezembro. A startup agora busca plataformas de jogos para testá-la. Sua proposta é cobrar uma pequena taxa mensal por usuário ativo.
Os fundadores da startup têm experiência no mercado de games: Rodrigo foi diretor da Intel para esse segmento, enquanto Maria estuda o impacto social dos jogos. A GamerSafer faz parte de um programa de aceleração da Universidade de Berkeley, nos EUA.