ESTUDE NA UNIT
MENU
Menu Principal

Julgamento no STF pode mudar regras das redes sociais

Decisão pode redefinir o papel de empresas como Facebook e YouTube na moderação de discursos ofensivos

às 19h34
Nelson Teodomiro- Especialista em Direito Eletrônico e professor da Universidade Tiradentes
Nelson Teodomiro- Especialista em Direito Eletrônico e professor da Universidade Tiradentes
Compartilhe:

A liberdade de expressão é um direito fundamental garantido pela Constituição, mas até que ponto ela deve ir no ambiente digital? Essa pergunta está no centro do julgamento do Supremo Tribunal Federal (STF) que pode redefinir a atuação de plataformas como Facebook, Instagram e YouTube na remoção de conteúdos considerados ilegais. A Corte analisa a constitucionalidade do artigo 19 do Marco Civil da Internet, que determina que essas empresas só podem ser responsabilizadas por danos decorrentes de publicações de terceiros se descumprirem uma ordem judicial de remoção.

A questão chegou ao STF por meio de dois recursos que tramitam em conjunto. O primeiro envolve um perfil falso criado no Facebook com ofensas a terceiros, enquanto o segundo remete a uma decisão que obrigou o Google a apagar uma comunidade ofensiva no antigo Orkut. O cerne da controvérsia reside na interpretação do Artigo 19, em vigor desde 2014, que isenta redes sociais e plataformas digitais de responsabilidade por danos causados por conteúdos de usuários, a menos que se recusem a cumprir uma ordem judicial de remoção.

As opiniões dos ministros do STF divergem significativamente. Os relatores dos recursos, Dias Toffoli e Luiz Fux, consideram a exigência de notificação judicial inconstitucional para a retirada de conteúdo ofensivo. Em contraste, o presidente da Corte, Luiz Roberto Barroso, defende que a norma é parcialmente inconstitucional, argumentando que a obrigação judicial deveria ser mantida em situações específicas, como crimes contra a honra, para proteger a liberdade de expressão. O ministro André Mendonça, por sua vez, divergiu, afirmando a constitucionalidade da regra do Marco Civil.

O ministro Flávio Dino apresentou um voto que busca ampliar a responsabilidade das plataformas. Para ele, a regra deveria permitir a punição das empresas caso não excluam postagens após a notificação de um usuário. A exceção a essa regra seria para casos de ofensas e crimes contra a honra, onde a plataforma só seria responsabilizada se descumprisse uma decisão judicial. Dino ainda propôs um rol taxativo de conteúdos que as plataformas teriam o dever de monitorar ativamente, como crimes contra crianças e adolescentes, incitação ao suicídio, terrorismo ou apologia a crimes contra o Estado Democrático de Direito. 

Liberdade em risco? O desafio de não censurar e proteger

A busca por um ponto de equilíbrio entre a liberdade de expressão e a proteção dos direitos de minorias é um dos maiores desafios do debate. Nelson Teodomiro, especialista em Direito Eletrônico e professor da Universidade Tiradentes (Unit), ressalta a complexidade dessa equação. “Se regulamentarmos demais as redes sociais, podemos acabar violando a liberdade de expressão, o que pode trazer prejuízos à democracia, já que as redes sociais são o principal espaço onde as pessoas expressam suas opiniões políticas”, explica o professor.

Por outro lado, a falta de regulação ou uma regulação insuficiente pode vulnerabilizar os direitos das minorias e de pessoas que precisam de um olhar mais cuidadoso por parte do Estado para garantir seus direitos. “A dificuldade em definir esse limite já é uma discussão antiga e que a definição pelo Judiciário é mais complexa do que por parte do Parlamento, que é um órgão de representação popular”, pondera Teodomiro.

Uma das principais críticas ao atual modelo é o fato de as plataformas se beneficiarem financeiramente da disseminação de conteúdos de ódio. O professor destaca que as redes sociais trabalham com conteúdos patrocinados que geram lucro. Para ele, quando um conteúdo é pago para ser divulgado, a plataforma já tem ciência do que está sendo veiculado, o que poderia dispensar a necessidade de notificação judicial.

“Se alguém paga por um anúncio, é dever da plataforma verificar esse conteúdo. Do contrário, alguém pode pagar para divulgar algo antissemita, racista, ou ofensivo às minorias, o que é muito grave A discussão no STF foca em impedir que essas redes lucrem com a disseminação de discursos de ódio, pois, como defendem os ministros, não existe liberdade sem responsabilidade”, salienta Teodomiro. 

Desafios da censura e da automação

O equilíbrio na responsabilização das plataformas sem gerar censura excessiva é outro ponto sensível. O uso de filtros automatizados e inteligência artificial para detectar conteúdos ofensivos, embora promissor, apresenta riscos significativos. “Há um grande risco, pois os algoritmos podem interpretar erroneamente temas importantes como, por exemplo, discussões educativas sobre pedofilia ou racismo”, alerta Teodomiro.

A automação pode levar à censura prévia, o que, para o especialista, é perigoso para a democracia. “A democracia só existe com liberdade de expressão. É a partir dela que as pessoas manifestam suas opiniões, seus posicionamentos políticos e promovem mudanças sociais”, afirma. Diante da gigantesca quantidade de conteúdos nas redes, um filtro 100% eficaz é inviável. Portanto, a abordagem mais prudente seria não censurar previamente, permitindo que o conteúdo permaneça no ar para posterior análise e remoção apenas do que for comprovadamente ofensivo.

Cenário regulatório e caminhos legais para a vítima

O Marco Civil da Internet é a principal base legal para a regulamentação do ambiente digital no Brasil, servindo para punir provedores negligentes em casos de violação de direitos. Além disso, diversos projetos de lei, como o PL das Fake News, tramitam no Congresso, impulsionados pelo aumento da disseminação de notícias falsas, especialmente durante a pandemia. Teodomiro ressalta a dificuldade de definir o que é fake news ou ato ofensivo versus liberdade de expressão, uma questão que varia significativamente entre países. 

“Nos EUA, a prioridade é a liberdade de expressão, com mais responsabilidade sobre o usuário e menos deveres para as plataformas. Já na China, o controle estatal é intenso, com foco nos direitos coletivos. O Brasil busca um meio-termo que garanta o debate democrático e proteja as minorias”, elenca o professor.

Para as pessoas que se sentirem violadas nas redes, o professor indica que o primeiro passo é denunciar a postagem na própria plataforma e, se possível, salvar prints do conteúdo ofensivo. “Em seguida, buscar um advogado para orientação sobre os próximos passos, que podem incluir uma queixa-crime ou ação por danos morais. Caso a postagem não seja removida após a denúncia, o único caminho é buscar a Justiça com apoio jurídico”, finaliza.

Enquanto isso, a decisão final do STF promete balizar os próximos passos da regulação digital no Brasil com impacto direto no funcionamento das redes sociais e na forma como os usuários lidam com liberdade, responsabilidade e direitos no universo online.

Leia também: Entenda a “Escala de Bristol”, que pode mostrar como está o seu intestino

Compartilhe: