ESTUDE NA UNIT
MENU

Decisão do STF amplia dever das plataformas contra crimes na internet

Nova interpretação do Marco Civil dispensa ordem judicial para retirada de conteúdos ilícitos, como discurso de ódio, racismo e fake news; professoras de Direito da Unit explicam o que muda na prática

às 12h26
Conforme o Marco Civil da Internet, as plataformas e big techs podem ser punidas se não atenderem às notificações para remover conteúdos ilegais. (Jefferson Rudy/Agência Senado)
Conforme o Marco Civil da Internet, as plataformas e big techs podem ser punidas se não atenderem às notificações para remover conteúdos ilegais. (Jefferson Rudy/Agência Senado)
Compartilhe:

De um lado, a defesa da total liberdade de expressão. Do outro, a necessidade de regulação para coibir a disseminação e incitação a crimes. No meio da disputa, estão as plataformas e operadoras de internet, que foram alvo de uma decisão recente do Supremo Tribunal Federal (STF). Em julgamento realizado no final de julho, o plenário da Corte mudou a interpretação do artigo 19 do Marco Civil da Internet, que exigia a notificação judicial para que as big techs e as redes sociais apaguem conteúdos que estejam ligados à prática de crimes, ou para que elas fossem responsabilizados legalmente por elas. 

Por maioria, os ministros entenderam que essa regra é parcialmente inconstitucional e já não é o suficiente para a proteção da democracia e dos direitos fundamentais. As professoras Agtta Christie Vasconcellos e Clara Cardoso Machado, ambas do curso de Direito da Universidade Tiradentes (Unit), explicam que o fundamento da exigência de ações judiciais para responsabilização das plataformas de internet era para assegurar a liberdade de expressão e para impedir a censura. Isso dava margem para que as redes e plataformas mantivessem no ar conteúdos e comentários que violassem a lei ou os direitos de outras pessoas, sem exercer nenhum tipo de moderação. Mesmo com notificações extrajudiciais enviadas por advogados. 

“Até junho de 2025, que é quando muda o entendimento do Supremo, a gente tinha a compreensão de que só com ordem judicial é que havia a remoção de fato daquele conteúdo, salvo aqueles casos que os termos de uso da própria plataforma, já diziam expressamente que poderia haver a remoção daquele conteúdo. Não era o normal, não era o que acontecia no dia a dia. Tinha que ter realmente um pedido, uma ordem judicial que às vezes demorava muito, gerando vários danos para as pessoas. E todas as notificações extrajudiciais não geravam a obrigação de retirada do ar daquele conteúdo e nem responsabilização”, explicou Clara. 

Agora, com a nova interpretação do STF, os pedidos administrativos encaminhados às plataformas, através das notificações extrajudiciais, já são o suficiente para obrigar a remoção ou moderação de conteúdos claramente ilegais como racismo, homofobia, instigação ao suicídio e á mutilação, terrorismo, abolição do Estado Democrático de Direito, discursos de ódio e perfis falsos, entre outros crimes. “Todas essas situações podem gerar o pedido administrativo e a plataforma tem que remover administrativamente, ou seja, não precisa da ordem judicial. O Supremo trouxe algumas exceções, por exemplo, crimes contra honra, injúria, calúnia e difamação. Nesse caso específico, como envolve realmente um direito de resposta, uma análise, aí a plataforma não tem a obrigatoriedade de fazer a retirada. Então, isso dependerá de ordem judicial”, complementou Agtta. 

Obrigações das big techs

As professoras explicam que o novo entendimento do STF se baseia no princípio do dever geral de cuidado, isto é, a obrigação das plataformas em evitar que os crimes aconteçam. “Os provedores vão ser responsabilizados se eles não retirarem esses conteúdos que configuram essas práticas de crime. A plataforma hoje tem que estruturar um canal de denúncia, manter, por exemplo, representantes legais aqui no Brasil, publicar relatórios de transparência… Isso já deveria acontecer, mas ficou mais explícito. E se for casos de conteúdo patrocinado, aí ela vai ter que ter um controle ainda maior, porque se você patrocina, presume-se a responsabilidade da plataforma, já que aquele conteúdo está gerando monetização e a plataforma está ganhando com aquele conteúdo. Então, nesses casos, se for algum conteúdo ofensivo, ela responderá também”, frisa Clara.

A decisão do Supremo veio no rastro de várias denúncias e ações judiciais que questionavam postagens e conteúdos relacionados a injúrias, crimes de ódio e incitação a outros tipos de delitos. E que era acompanhado de perto por uma grande campanha movida pelas próprias big techs e por grupos políticos que evocavam “falta de segurança jurídica” ou acusavam o governo brasileiro e o Judiciário de impor uma suposta “censura” aos cidadãos. Foi o que as big techs e seus representantes alegaram durante as discussões sobre o tema no STF para questionar ou não cumprir as regras determinadas pela legislação brasileira. 

Na avaliação de Clara Machado, estes são argumentos que não se sustentam. “A gente tem que lembrar o que eu sempre digo em sala de aula: não existe direito absoluto. E além disso, a nossa liberdade tem que ser pensada em comunidade. Se eu atingir o outro, se eu cometer um crime, não importa se está no mundo virtual. É crime. Tem que haver uma regulação estatal e uma responsabilização nesses casos. Por mais que a plataforma venha a trazer esses ‘riscos de censura e insegurança’, essa decisão do Supremo é muito clara, que a responsabilização não vai aqui restringir o debate que seja legítimo. Nós continuamos a liberdade, podemos nos manifestar, o direito à informação está lá está garantido… mas temos que proteger os direitos fundamentais de todos quando visivelmente há um ato ilícito ou um crime”, argumenta a professora. 

Protegendo as crianças

A obrigação de remoção ficou ainda mais explícita com uma segunda lei: o chamado Estatuto Digital da Criança e do Adolescente (ECA Digital). Ele estabelece regras para proteção e prevenção de crimes contra crianças e adolescentes em ambientes digitais, incluindo mais obrigações para fornecedores e mais ferramentas de controle de acesso por parte de pais e responsáveis. E foi aprovado pelo Congresso Nacional em setembro deste ano, no rastro da repercussão causada pelo vídeo do youtuber Felipe Bressan, o Felca, que denunciou publicamente a produção e divulgação de vídeos de influenciadores com conteúdo erótico ou sexual envolvendo crianças e adolescentes. 

Agtta Vasconcelos avalia que o “Caso Felca”, como o episódio ficou conhecido, impulsionou uma discussão que já existia há pelo menos três anos, em relação à proteção das crianças e adolescentes em ambiente digital. “É uma discussão relevante e havia uma pressão por maior regulação das redes sociais. A gente tem que proteger as crianças e adolescentes, e a Constituição é muito clara: é dever do Estado, da sociedade e da família. Não é uma responsabilidade que é apenas da família, mas sim de todos nós. A ideia aqui é que a gente lembre que nós temos deveres e em relação às crianças e adolescentes isso fica ainda muito mais claro”, exorta.

Em caso de descumprimento, as big techs que atuam no Brasil podem ser punidas com sanções administrativas (advertência, multa de até 10% do faturamento no Brasil, suspensão do provedor) e responsabilidade civil com pagamento de indenizações por não removerem conteúdos criminosos, especialmente após notificação extrajudicial.

com informações do STF

Leia mais:
Racismo no atendimento de saúde compromete a vida de mulheres negras no Brasil

Compartilhe: