Eles estão cada vez mais presentes e com mais força de interferência no debate público: os algoritmos desenvolvidos por plataformas e tecnologias de redes sociais. Essa presença pode ser constatada na realização de campanhas de desinformação realizadas nas redes sociais, ou em tentativas deliberadas de fazer pender esse debate a favor de determinados grupos ou correntes ideológicas. Um cenário que levanta entre os especialistas a seguinte questão: como o uso desses algoritmos pode ser impedido, regulado ou responsabilizado juridicamente?
A discussão é proposta pela pesquisa “Perspectivas Sociojurídicas sobre a Utilização de Social Bots na Desinformação Relativa ao Meio Ambiente e ao Clima”, um projeto de iniciação científica realizado no curso de Direito da Universidade Tiradentes (Unit). A autora foi a estudante Caroline Jacques Fraga da Silva, do oitavo período de Direito, com orientação da professora Clara Cardoso Machado Jaborandy, do Programa de Pós-Graduação em Direitos Humanos (PPGD).
A pesquisa foi divulgada em agosto de 2024, através de um resumo expandido apresentado no XIII Encontro de Pesquisa Empírica em Direito (EPED), evento acadêmico realizado na Universidade Federal de Sergipe (UFS) e voltado à divulgação e debate de pesquisas jurídicas. Na ocasião, ela foi publicada nos Anais do evento e premiada como melhor trabalho apresentado no grupo de trabalho sobre Desinformação e Inteligência Artificial. Ela faz parte da linha de pesquisa Direitos Humanos e Novas Tecnologias, do PPGD/Unit, com foco na relação entre democracia, ambiente digital e proteção de direitos fundamentais, contando ainda com uma bolsa do Pibic, o programa de bolsas de apoio do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq).
A aluna conta que escolheu esse tema para sua pesquisa em razão da crescente relevância da desinformação ambiental e climática nos processos eleitorais e pela gravidade da crise ambiental contemporânea. “Os efeitos da crise são diretos, urgentes e socialmente desiguais. A pesquisa parte da constatação de que o uso de social bots e tecnologias automatizadas tem sido empregado para distorcer informações científicas, exigindo uma análise sociojurídica aprofundada voltada à proteção da democracia e dos direitos fundamentais. O que me atraiu foi a possibilidade de compreender e enfrentar problemas contemporâneos complexos, especialmente aqueles que envolvem tecnologia, democracia e direitos fundamentais. Trata-se de um campo dinâmico, interdisciplinar e socialmente relevante”, acrescenta Caroline.
A orientadora Clara Machado destaca a postura aplicada e resiliente da estudante ao longo de todo o desenvolvimento do projeto. “Ela manteve essa postura especialmente diante das dificuldades inerentes à pesquisa científica em temas complexos e em constante transformação, como a desinformação mediada por tecnologias digitais. Sua atuação foi marcada pelo senso de responsabilidade com o conteúdo produzido, rigor na análise das fontes e compromisso contínuo com o aprimoramento teórico e metodológico do trabalho”, elogia a professora, destacando a importância da iniciação científica para a pesquisa na área jurídica. “Em um campo historicamente marcado pela dogmática, a iniciação científica contribui para ampliar o olhar do estudante sobre o Direito, estimulando abordagens interdisciplinares, empíricas e problematizadoras. Além disso, fortalece a cultura da pesquisa acadêmica, promove a renovação do debate jurídico e prepara novos pesquisadores para enfrentar desafios contemporâneos cada vez mais complexos”, define.
“A Iniciação Científica foi fundamental para o meu crescimento como estudante e como pessoa, pois me proporcionou amadurecimento intelectual, proatividade e responsabilidade no desenvolvimento da pesquisa. Ao longo do processo, desenvolvi habilidades críticas e técnicas, especialmente na análise de dados, na leitura qualificada da literatura e na construção de argumentos científicos. Além disso, o aprofundamento contínuo na temática tornou a experiência especialmente gratificante e enriquecedora, consolidando meu interesse pela pesquisa e pela reflexão acadêmica comprometida com problemas sociais relevantes”, completa Caroline.
Porque regular os bots
O estudo debruçou-se sobre a existência e atuação dos bots sociais, algoritmos capazes de gerar e disseminar conteúdo de forma automática, interagindo com usuários humanos e influenciando dinâmicas comunicacionais nas redes sociais. Segundo as autoras, tais algoritmos acabam usados para pautar a distorção de informações que comprometem a conscientização pública e a ação coletiva essencial para enfrentar as questões climáticas. “A atuação desses sistemas contribui para a formação de uma chamada ‘opinião pública artificial’, na medida em que amplia a circulação de notícias falsas ou não verificadas, favorecendo o fenômeno da infodemia, caracterizado pela desinformação em massa. Esse cenário é problemático considerando que aproximadamente 20% das discussões políticas nas redes sociais são impulsionadas por bots”, detalha Caroline.
Para a professora Clara Machado, trata-se de uma questão fundamental para compreender a liberdade de expressão e os seus limites no contexto das novas tecnologias, especialmente diante da proliferação de conteúdos desinformativos sobre mudanças climáticas. “A desinformação ambiental, potencializada pelo uso de social bots e estratégias automatizadas, compromete o debate público qualificado, enfraquece a confiança científica e dificulta a formulação e a implementação de políticas públicas voltadas à proteção ambiental e ao enfrentamento da crise climática. Nesse cenário, torna-se indispensável que tanto os legisladores quanto a sociedade compreendam não apenas os impactos da desinformação sobre a democracia, mas também seus efeitos concretos sobre a natureza e a governança ambiental”, destaca.
O uso dos bots sociais, por se inserir no contexto da inteligência artificial, ainda não é regulamentado oficialmente na legislação brasileira, mas uma série de leis e códigos, a exemplo do Código Penal e do Marco Civil da Internet, podem ser aplicadas nestes casos, ainda que dêem margem a uma série de interpretações.
De acordo com as autoras, a área jurídica na qual esta regulamentação aparece de forma mais clara é a da Justiça Eleitoral, cuja resolução nº 23.732, de 27 de fevereiro de 2024, baixada para orientar as as eleições municipais daquele ano, passou a exigir que conteúdos manipulados sejam claramente identificados, incluindo o uso de tecnologias como chatbots e avatares em campanhas eleitorais, submetendo-se a rigorosas exigências de transparência. “Adicionalmente, iniciativas de autorregulação têm sido implementadas pelas plataformas digitais em colaboração com o Judiciário e órgãos reguladores. Estas medidas visam combater a desinformação através da verificação de fatos e da remoção de conteúdos falsos”, apontou Caroline.
Segundo a orientadora, os próximos passos da pesquisa concentram-se na análise empírica da implementação da Resolução TSE nº 23.732/2024 no contexto das eleições gerais de 2026, o que corrobora a necessidade de verificar em que medida as diretrizes normativas relativas ao uso de inteligência artificial, automação de conteúdos e social bots foram efetivamente aplicadas, fiscalizadas e sancionadas, principalmente diante de práticas de desinformação ambiental e climática.
“Essa abordagem ratifica a importância de avaliar não apenas o desenho normativo da resolução, mas sua capacidade concreta de incidência sobre a dinâmica informacional, ao mesmo tempo em que a pesquisa avança na atualização e sistematização das iniciativas da sociedade civil, como observatórios digitais, agências de checagem e projetos de educação midiática, resultando na análise do impacto real dessas ações na mitigação da circulação de conteúdos enganosos e de suas limitações frente à crescente sofisticação das estratégias automatizadas. Bem como na análise dos retrocessos e dos avanços recentes incorporados pelas próprias plataformas digitais em seus termos de uso e políticas internas, especialmente no que se refere à identificação, rotulagem e remoção de atividades automatizadas inautênticas”, considera Clara.
Leia mais:
Nova abordagem científica amplia o debate sobre quando começa a velhice