Após receber jogos envolvendo a morte do influenciador Charlie Kirk, a plataforma Roblox voltou a ser alvo de autoridades nos Estados Unidos
O Roblox, uma das maiores plataformas de games do mundo, está no centro de uma nova polêmica envolvendo segurança infantil. O caso ganhou força depois que usuários criaram experiências que simulavam o assassinato do influenciador Charlie Kirk, morto em 10 de setembro durante um evento em universidade nos Estados Unidos.
O conteúdo foi rapidamente removido, rendendo até um comentário do CEO da empresa. No entanto, a questão acendeu alertas sobre os riscos do ambiente virtual e serviu como combustível para movimentações legais nos Estados Unidos.
A repercussão levou autoridades do estado de Oklahoma a anunciarem os primeiros passos para uma possível ação judicial contra a empresa. O procurador-geral Gentner Drummond declarou que o Roblox estaria “repleto de predadores e conteúdos nocivos”, sem oferecer barreiras adequadas de proteção para menores.
Jogos chocantes e a polêmica do assassinato simulado
Poucas horas após o assassinato de Kirk, jogadores publicaram experiências que permitiam reviver o ataque ou até vestir avatares com roupas zombando da vítima. Entre os títulos criados estavam:
Survival the Charlie Kirk the Killer
Charlie Kirk Memorial Game
Simuladores de comícios com mensagens de ódio contra o comentarista
A pressão política cresceu depois que parlamentares pediram até a exclusão do app das lojas da Apple e Google.
O que a empresa diz sobre segurança e proteção infantil
O CEO David Baszucki afirmou que os conteúdos foram retirados assim que identificados, reforçando que “simulações de eventos violentos reais violam as regras da comunidade”.
Além disso, a Roblox enviou um posicionamento oficial ao Voxel, detalhando medidas de segurança adotadas na plataforma. “A Roblox está profundamente comprometida com a segurança e o bem-estar de nossa comunidade, com dezenas de milhões de usuários tendo experiências positivas todos os dias, em que as pessoas se conectam, aprendem e criam.”
“Investimos recursos significativos em tecnologias avançadas de segurança, incluindo uma combinação de machine learning e equipes de moderação humana que atuam 24 horas por dia, 7 dias por semana, para identificar e lidar com conteúdos e comportamentos inadequados”, ressalta a companhia. “Todos os dias tomamos medidas imediatas contra qualquer conteúdo ou usuário que viole nossos Padrões da Comunidade e políticas, que proíbem explicitamente a representação de eventos sensíveis do mundo real.”
A companhia também enfatiza que está aberta para receber denúncias e colaborar com autoridades em casos que violam as leis. “Como nenhum sistema é perfeito, também incentivamos todos a denunciar conteúdos ou comportamentos que possam não estar em conformidade com nossos Padrões da Comunidade por meio do recurso Denunciar Abuso, e tomaremos as medidas necessárias de forma imediata.”
Fonte: tecmundo.com.br












