Nos últimos dias, parte da comunidade gamer no Brasil reagiu às novas barreiras impostas pelo Roblox. Houve muita crítica à limitação de chats e à redução de interações entre usuários, ocasionando “protestos” dentro da plataforma por meio de placas (com inúmeros erros de escrita, afinal, são crianças) entre os jogadores que não podem utilizar o chat ou conversa por voz. O ponto central, porém, não é “tirar liberdade”, e sim adequar o serviço a um cenário jurídico que exige proteção reforçada para crianças e adolescentes.
As mudanças caminham em três frentes: verificação de idade por documento ou biometria como condição para liberar chats de texto e voz; separação de públicos por faixas etárias para evitar contato direto entre usuários muito distantes em idade; e bloqueio automático do chat em experiências para menores de 9 anos, com liberação apenas quando o responsável autoriza. É um redesenho de segurança pensado para quem está em desenvolvimento e, portanto, é mais exposto a riscos.
Destaque-se que a medida não é censura nem ato isolado de um player privado. É compliance, conformidade regulatória. A popularmente conhecida “Lei Felca” ou ECA Digital (Lei 15.211/25), com vigência prevista para março de 2026, eleva o padrão de proteção online. Entre suas diretrizes, determina que contas de usuários com menos de 16 anos estejam vinculadas a um responsável legal. Na prática, a supervisão parental deixa de ser apenas recomendada e passa a ser um elemento estrutural do serviço. A checagem de idade, por sua vez, substitui a autodeclaração como mecanismo de confiança.
Esse movimento se soma a um microssistema já existente. O Marco Legal dos Jogos Eletrônicos (Lei 14.852/24) impõe deveres de prevenção e canais acessíveis de denúncia, além de vedar que os serviços fomentem discriminação ou exploração sexual infantil. Some-se a isso o Marco Civil da Internet (Lei 12.965/14), a LGPD (Lei 13.709/18) e o CDC: juntos, reforçam a responsabilidade objetiva dos fornecedores pela experiência que desenham e colocam no mercado. No ecossistema de jogos, onde diversão convive com transações reais e economia interna (como o Robux, moeda utilizada dentro do game), a assimetria de informações e a suscetibilidade do público jovem exigem salvaguardas adicionais.
O Judiciário também vem apertando o cerco. O STF, ao revisitar a interpretação do art. 19 do Marco Civil, sinalizou que a omissão das plataformas diante de riscos sistêmicos a direitos fundamentais não é aceitável. Há um dever de cuidado que antecede ordens judiciais, sobretudo quando se trata da proteção de públicos vulneráveis. Em ambientes de jogos e redes sociais, isso significa projetar a segurança desde a origem: moderação mais ativa, barreiras técnicas e governança de riscos.
Esse não é um debate restrito ao Brasil. Nos Estados Unidos, o Procurador-Geral do Tennessee ajuizou ação contra a Roblox Corporation, alegando práticas enganosas e falhas que favorecem a aproximação de adultos com crianças e o acesso a conteúdo inadequado, além de explorar a atratividade do jogo e de sua moeda virtual para manipular o público infantojuvenil. Na Austrália, legislação recente restringe o acesso de menores de 16 anos a redes sociais, em uma das respostas regulatórias mais severas do mundo, sustentada no argumento de que a proteção da saúde mental e da integridade física das crianças não pode depender apenas das famílias. Trata-se de uma tendência internacional de contenção de riscos e responsabilização de Big Techs.
Há um motivo técnico por trás dessa guinada. A arquitetura de plataformas é construída para reter atenção, coletar dados e aumentar engajamento. Sem freios, esse design pode colidir com a segurança e a privacidade de quem ainda não tem repertório para dimensionar riscos. Dados acumulados desde cedo formam perfis duradouros e difíceis de reverter. Mecanismos de idade, segmentação e controle parental buscam reduzir exatamente essa exposição.
Do ponto de vista jurídico, é útil ajustar o foco. O Direito Civil trabalha com marcos etários rígidos para capacidade. No mundo digital, contudo, a lógica da “autonomia progressiva” exige mediações. Acesso a plataformas de games é, essencialmente, consumo. Crianças e adolescentes são hipervulneráveis nesse mercado: têm menos informação, mais suscetibilidade a pressões e alto apelo por recompensas imediatas. Não basta consentimento formal. É necessário redesenhar o serviço para que o risco seja menor por padrão. E é nesse ponto que a autoridade parental precisa se prolongar para o ambiente online, com acompanhamento real e decisões informadas.
O ECA Digital procura justamente recompor esse equilíbrio: reconhece a autonomia gradativa, mas condiciona a participação do público menor a mecanismos de proteção efetivos, como vinculação a responsáveis e verificação de idade. Ao adotar medidas proativas, o Roblox alinha-se a essa diretriz e sinaliza que a experiência de jogo deve ser segura por desenho, não apenas “consertada” depois do dano.
A “revolta” dos jogadores é um termômetro da importância social desses ambientes, mas não pode se sobrepor ao imperativo da proteção integral. O rumo que se desenha combina supervisão dos pais, dever de cuidado das plataformas e um arcabouço legal que cobra prevenção, transparência e responsabilização. Em termos simples: liberdade digital de crianças e adolescentes caminha junto com o cuidado.