ESTUDE NA UNIT
MENU

Entenda os riscos do uso indevido da IA na manipulação de imagens

Especialistas alertam para os riscos éticos e jurídicos após denúncias do Caso Grok, que envolve a geração de imagens sexualizadas com fotos de pessoas por um chatbot

às 19h14
Compartilhe:

O advento das plataformas de inteligência artificial revelou recentemente um aspecto que preocupa muitas pessoas e tem levantado o debate sobre a necessidade de regulação legal e ética destas tecnologias: o uso delas para a distorção de imagens e dados de outras pessoas, com intenções difamatórias e até mesmo criminosas. O fato gerador deste debate tem a ver com o Grok, chatbot de inteligência artificial que funciona em conjunto com a rede social X (antigo Twitter) e desenvolvido pela xAI, empresa do bilionário sul-africano Elon Musk. A quarta versão do Grok, lançada em julho de 2025, veio com uma ferramenta de geração de imagens com IA, a Grok Imagine, que permite a criação ou manipulação de fotos, desenhos e até vídeos bastante semelhantes com a realidade. 

Com ela, surgiram denúncias de que pessoas estariam usando a ferramenta para criar imagens de mulheres e até de crianças e adolescentes em trajes íntimos ou situações de prática sexual. Uma investigação realizada em dezembro pela ONG britânica Center for Countering Digital Hate (CCDH) apontou que, em apenas 11 dias, entre dezembro de 2025 e janeiro de 2026, o Grok 4 gerou aproximadamente 3 milhões de imagens sexualizadas e até mesmo pornográficas, envolvendo milhares de crianças e outras com pessoas famosas, incluindo cantoras, atrizes, atletas, modelos e influenciadoras. 

A função de manipular imagens, incluindo fotos e vídeos, é uma das capacidades da chamada IA Generativa, área especializada na criação de textos, imagens, áudios e códigos, com base em dados fornecidos por comandos humanos (chamados de prompts). O professor Victor Flávio de Andrade Araújo, dos cursos de Tecnologia da Informação (TI) da Universidade Tiradentes (Unit), explica que esta área evoluiu rapidamente com o surgimento de computadores mais poderosos, capazes de lidar com muitos dados. 

“A partir disso, nós da computação conseguimos criar modelos estatísticos que fazem a máquina aprender padrões em um banco de dados imenso. Por exemplo: se eu tenho a capacidade de armazenar e processar informações de dezenas de milhares de imagens da internet, consequentemente, eu consigo entender padrões específicos dessas imagens. A partir deste entendimento, muitas pesquisas científicas de grandes empresas começaram a tentar replicar esses padrões a partir dos dados já conhecidos (das informações já conhecidas). Aí entra a IA generativa, ou seja, eu preciso de uma grande quantidade de informações para aprender um padrão e criar algo em cima deles (replicar)”, explica Victor. 

Apesar da alta capacidade dos programas e das máquinas de IA, com seus modelos e padrões pré-definidos, elas não têm a capacidade de fazer essas manipulações ou criações por iniciativa própria. Ou seja: o tom e a conotação a serem dados para cada imagem criada é geralmente ditado por um comando humano que precisa dizer, de forma específica e clara, o que ele quer do chatbot

“No entanto, esses modelos precisam de dados para relacionar e criar, o que a gente chama de modelo contrastivo (de contraste). Exemplo: se eu escrever ‘quero uma imagem de um gato’, o GPT vai descartar tudo o que não tem relação com gato no banco de dados de imagens dele, e vai, provavelmente, criar uma imagem de gato com as características mais presentes de um determinado padrão de gato. Se tem mais gatos brancos do que pretos, então, tem mais chances que ele te gere uma imagem de gato branco. Esse padrão de relação, que contrasta ou não, segue para qualquer coisa”, detalha o professor, observando que os programas de IA usam informações disponíveis em toda a internet. 

Sem filtros

Todos os chatbots de IA, como o ChatGPT e o Google Gemini, são dotados de funções para processar e analisar imagens a partir de dados de outras pessoas, mas a maioria deles têm políticas internas de restrições para esta prática, principalmente em casos sensíveis, com situações de nudez e violência. Aqui, entra o Grok, que por decisão inicial de Elon Musk, não vinha adotando nenhum filtro ou controle para a recepção e a criação de imagens. “Ele foi desenhado justamente para ser o oposto de modelos mais ‘comportados’, como o ChatGPT ou o Gemini. Como ele nasceu com essa promessa de liberdade total e menos filtros, acabou facilitando muito esse tipo de abuso”, pontua a gerente de Processos, Resultados e LGPD do Grupo Tiradentes, Suzan Kelly Oliveira.

Ela destaca que a manipulação criminosa das imagens e dados através de um processo considerado como o mais perigoso: a transferência de imagem para imagem, que cria o chamado deepfake. “Em vez de a IA criar um desenho do zero, o usuário entrega uma foto real de alguém. A máquina usa o rosto e o corpo daquela pessoa como um molde e reconstrói o resto. O resultado é assustador: ela consegue criar imagens pornográficas ou sexualizadas com um realismo tão alto que fica difícil distinguir o que é verdade, destruindo a reputação da vítima em questão de segundos”, descreve Suzan. 

E no caso dos chatbots concorrentes, a prática acontece por causa do jailbreak, um processo que “dribla” e engana os filtros restritivos contra pedidos ilegais ou perigosos. É como se você destravasse um celular para instalar programas proibidos; você ‘liberta’ a máquina das regras de segurança que os criadores colocaram nela. Para fazer isso, os usuários usam psicologia: contam histórias fictícias ou usam lógicas complicadas para convencer a IA de que ela não está fazendo nada de errado”, revela a gerente. 

A distorção de imagens com fins sexualizadores ou difamatórios com uso da IA incorre em uma série de crimes tipificados legalmente. A começar pelo Código Penal brasileiro, que, em seu artigo 218-C, prevê de um a cinco anos de prisão para quem divulgar cenas de sexo, nudez ou pornografia sem consentimento. Há ainda a LGPD (Lei Geral de Proteção de Dados), que considera o rosto e o corpo de uma pessoa como dados biométricos e impõe multas de até R$ 50 milhões para a empresa que os usar sem autorização. E o Código Civil garante que a vítima seja indenizada por danos morais e à sua honra.

Suzan Kelly é categórica ao considerar que a prática da Grok provocou uma “violação em cascata” dos direitos das vítimas ao permitir a criação de imagens sexualizadas. “Primeiro, o direito à imagem e à honra. Segundo, o direito à autodeterminação informativa, que é o poder do indivíduo de controlar como seus dados (incluindo seu rosto) são usados. No caso de mulheres, há uma clara violação da dignidade da pessoa humana e o direito de não ser submetida a violência de gênero, já que o uso não consentido de imagem para fins sexuais é uma forma de abuso psicológico e moral”, afirma. 

“Se o Brasil tem determinadas leis para proteção de dados, então eu acho que nenhum desses modelos deveriam manipular nossas fotos e reproduzi-las sem nosso consentimento. A partir disso, assim como o GPT, por exemplo, eu acho que o Grok poderia bloquear alguns assuntos sensíveis. E, esse é um caso sensível. A empresa do Grok tem como colocar “amarras” em determinados assuntos para que o modelo não crie imagens sexualizadas, de amputamento, que mostre sangue, etc. Principalmente, sendo imagens de pessoas”, completa Victor Flávio. 

Tem que regular

As denúncias da CCDH não tardaram a repercutir em todo o mundo. Elon Musk, a princípio, debochou do assunto e até incitou a produção de mais imagens, através de seu perfil no X. Depois, quando o Grok passou a ser alvo de ações judiciais nos Estados Unidos, de bloqueios em países como Turquia, Malásia e Indonésia; e de investigações no Brasil, Japão e União Europeia; o bilionário cedeu e fez sua empresa impedir o uso para usuários não-pagantes e proibir a sexualização de imagens em países onde a prática é ilegal.

Suzan Kelly diz que o caso chama a atenção para a “necessidade urgente” de uma autoridade global ou transnacional para regular as tecnologias de IA. “O ideal seria termos uma espécie de ‘Lei da IA Global’ ou um tratado internacional de peso, algo comparável ao que temos hoje como grandes acordos climáticos. Precisamos estabelecer padrões mínimos de segurança e ética que valham para todos. Sem esse alinhamento global, corremos o risco de ver empresas buscando ‘paraísos regulatórios’, ou seja, países com leis frouxas onde elas possam hospedar modelos sem nenhum tipo de filtro ou responsabilidade. Um tratado transnacional impediria essa fuga de responsabilidade e garantiria que, independentemente de onde a tecnologia venha, o respeito à dignidade humana seja o mesmo em qualquer lugar do planeta”, afirma a gerente. 

Leia mais: 
WhatsApp lança modo de alta segurança e reforça blindagem contra clonagens e golpes

Compartilhe: