ESTUDE NA UNIT
MENU
Menu Principal

Debate sobre proteção de menores nas redes e jogos reacende após mudanças no Roblox

Advogada explica como nova lei amplia dever de cuidado e pode responsabilizar empresas por falhas de segurança

às 19h14
Foto: Reprodução
Foto: Reprodução
Compartilhe:

Nas últimas semanas, um dos temas mais comentados entre pais, educadores e especialistas em tecnologia foi a mobilização de crianças dentro do Roblox contra mudanças nas regras de interação, especialmente ligadas ao chat de voz e aos novos sistemas de verificação etária. Embora parte dos usuários jovens tenha protestado dentro do próprio ambiente virtual, as alterações foram anunciadas com o objetivo de ampliar a segurança infantil. O episódio trouxe à tona discussões sobre privacidade, responsabilidade das plataformas e limites legais na proteção de menores.

Para a advogada e professora de Direito da Universidade Tiradentes (Unit), Clara Machado, a discussão não é apenas tecnológica, mas jurídica. Ela afirma que o modelo tradicional de verificação de idade baseado na autodeclaração já não atende às exigências legais brasileiras. “O simples ‘clique aqui se você tem mais de 13 anos’ não possui mais validade legal para isentar a plataforma de responsabilidade”, explica, ao comentar as exigências da Lei 15.211/2025, conhecida como ECA Digital.

A especialista afirma que a legislação introduz o conceito de “acesso provável”, aplicado a serviços que, mesmo não sendo criados exclusivamente para crianças, são amplamente utilizados por elas. Segundo ela, isso amplia o dever de cuidado das empresas. “Se uma plataforma é atrativa e de fácil acesso para menores, ela deve implementar barreiras reais de proteção”, afirma, ressaltando que milhões de usuários abaixo de 13 anos utilizam a plataforma diariamente.

A advogada observa que sistemas biométricos ou documentais representam avanço, mas não resolvem o problema sozinhos. “Para ser juridicamente suficiente, o mecanismo precisa ser robusto contra fraudes e funcionar de forma contínua, não apenas no cadastro”, diz. Relatórios da OCDE, lembra ela, apontam que predadores digitais frequentemente utilizam múltiplas contas para se passar por menores.

Ela acrescenta que a legislação exige segurança automática para contas infantis. “Se a verificação só coloca um selo no perfil, mas mantém chats abertos com adultos desconhecidos, ela é insuficiente diante do dever legal de mitigar riscos de aliciamento. A eficácia da medida depende da arquitetura completa de proteção, não apenas da tecnologia isolada”, afirma.

Biometria

O uso de reconhecimento facial para confirmar idade também levanta questionamentos. Clara explica que a coleta de biometria não é proibida, inclusive quando envolve menores, desde que siga critérios rigorosos. “Trata-se de dado sensível e, quando envolve crianças, o risco é duplicado, exigindo proteção absoluta”, afirma.

Segundo ela, a legalidade depende da finalidade. “A biometria só pode ser usada para proteger a criança, como impedir acesso a conteúdo nocivo ou contato com predadores. Se for utilizada para marketing ou perfilamento, torna-se ilegal”, esclarece. A professora destaca que a legislação exige vínculo direto entre coleta e proteção, sem desvios de uso.

Outro requisito é a minimização de dados. “O ideal é que a plataforma receba apenas um ‘sim ou não’ sobre a idade, sem armazenar permanentemente o rosto da criança”, explica. Caso haja retenção do material, ela aponta risco de violação dos princípios de necessidade e segurança previstos na legislação.

Ela também reforça a exigência de consentimento dos responsáveis. “Para menores de 12 anos, a verificação facial sem autorização clara dos pais é uma violação direta da lei”, afirma. A preocupação das famílias é compreensível, pois a entrega de dados biométricos a empresas globais exige alto nível de transparência e controle técnico.

Dever digital

Se falhas no sistema permitirem que menores sejam expostos a riscos, a plataforma pode responder legalmente. A advogada explica que a nova legislação adota um modelo baseado no risco da atividade. “Se a empresa falhar no dever de cuidado, ela pode ser responsabilizada civil e administrativamente”, afirma.

Ela diz que, quando um mecanismo ineficaz permite acesso a ambiente nocivo, isso pode ser caracterizado como defeito na prestação do serviço. “Em danos graves previsíveis, como aliciamento ou exposição a conteúdo sexual, defendemos a responsabilidade objetiva da plataforma”, declara, ressaltando que não seria necessário provar culpa, apenas a falha e o dano.

Sobre a divisão de responsabilidades, a especialista afirma que a lei estabelece um sistema compartilhado, mas desigual. “A proteção de crianças é dever conjunto da família, do Estado e da sociedade, incluindo empresas”, explica. Segundo ela, cláusulas contratuais que tentem transferir toda a obrigação aos pais podem ser consideradas nulas.

Isso não elimina, porém, a obrigação familiar de supervisão. “Os pais podem ser responsabilizados por negligência reiterada, mas a lei reconhece que é impossível vigiar 100% do tempo. Justamente por essa limitação humana, a norma exige que plataformas digitais ofereçam ambientes seguros por padrão”, afirma.

Ela conclui que o Brasil já possui instrumentos jurídicos para fiscalizar empresas estrangeiras que atuam no país. “O desafio não é a falta de lei, e sim a efetividade da aplicação, que depende de estrutura técnica e coordenação institucional. Com a entrada em vigor do ECA Digital, o país passa a ter base normativa mais clara para exigir proteção real ao público infantojuvenil no ambiente virtual”, finaliza.

Leia também: WhatsApp lança modo de alta segurança e reforça blindagem contra clonagens e golpes

Compartilhe: