ESTUDE NA UNIT
MENU

Sistemas de reconhecimento por IA podem conflitar com direitos fundamentais

A conclusão é de um estudo de iniciação científica realizado por aluna do curso de Direito; ela analisou a conformidade dos sistemas de videomonitoramento à LGPD

às 20h04
Compartilhe:

Como utilizar a Inteligência Artificial para aperfeiçoar os sistemas de segurança e de reconhecimento facial, mas ao mesmo tempo garantir os direitos, regras e prerrogativas previstos pela Lei Geral de Proteção de Dados (LGPD)? Esta reflexão é proposta através de uma pesquisa de iniciação científica realizada entre setembro de 2023 e agosto de 2024 pela então aluna Naomy Samara Santos, do curso de Direito da Universidade Tiradentes (Unit). A autora, que concluiu o curso logo em seguida, fez um mapeamento e análise dos sistemas digitais de reconhecimento facial por videomonitoramento em espaços públicos que foram implementados em Sergipe. 

O objetivo, segundo ela, foi compreender a adequação destes sistemas às exigências da LGPD (Lei nº 13.709/2018) e do direito fundamental à privacidade. Além de analisar o funcionamento destes sistemas, houve ainda um levantamento de livros, artigos científicos e documentos sobre proteção de dados e direitos fundamentais, com ênfase no direito à privacidade. Para a autora, esta análise revela “preocupações significativas” sobre a conformidade com o direito à privacidade e a eficácia da LGPD. “Embora a LGPD tenha um papel crucial na proteção dos direitos dos cidadãos e na promoção de uma economia da informação mais justa, a sua aplicação efetiva ainda enfrenta desafios, como a necessidade de uma mudança cultural que valorize a proteção de dados pessoais”, considera Naomy. 

A pesquisa concluiu que o uso de tecnologias de reconhecimento facial demonstra um potencial conflito com os direitos fundamentais, especialmente com o direito à privacidade. Segundo ela, as evidências apontam que a vigilância digital, muitas vezes invisível, pode resultar em violações graves, exacerbando desigualdades sociais e raciais. 

Outro problema apontado foi a falta de regulamentação clara sobre o uso, alcance e armazenamento das imagens capturadas pelas câmeras. “Essa falta representa uma ameaça à liberdade individual e à privacidade. Além disso, a ineficácia do reconhecimento facial como ferramenta de segurança pública é evidente, com taxas alarmantemente baixas de conversão de alertas em prisões efetivas”, aponta Naomy, alertando ainda que o emprego incorreto ou inadequado destas tecnologias provocam muito mais do que falhas nas funções e estratégias de segurança, mas “também agrava problemas de violações de direitos e reforça preconceitos existentes, direcionando a vigilância de maneira desproporcional a grupos marginalizados”. 

Para a autora do estudo, é necessário haja um debate mais amplo e inclusivo sobre o uso de tecnologias de vigilância, de modo a garantir que os direitos humanos sejam respeitados e que as vozes dos grupos afetados sejam ouvidas. “A construção de uma arquitetura regulatória robusta e transparente é fundamental para garantir que a implementação de sistemas de reconhecimento facial não se torne uma ferramenta de opressão, mas sim uma medida que respeite e proteja os direitos de todos os cidadãos”, conclui Naomy.

O projeto Implementação de sistemas de reconhecimento facial por inteligência artificial (IA) no estado de Sergipe: Uma análise do tratamento de dados frente ao direito à privacidade e às normas da LGPD foi orientado pela Fernanda Oliveira Santos, do curso de Direito, e contou com o apoio do Programa de Iniciação de Bolsas de Iniciação Científica (Pibic), do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). 

Foco no digital

A partir do projeto de IC, Naomy Samara foi aprofundando seus estudos na área de Direito Digital. Ao longo do ano passado, ela também fez um Trabalho de Conclusão de Curso (TCC) sobre a regulamentação do trabalho contemporâneo mediado por plataformas digitais no Brasil, buscando uma análise sobre os impactos da “plataformização laboral”, já que as plataformas não estabelecem vínculo de emprego entre os usuários. Segundo a autora, a chamada “uberização” desconfigurou os vieses trabalhistas, formando parceiros como método de se ausentar das responsabilidades dos direitos inerentes ao processo laboral. E por isso, o TCC buscou compreender quais as implicações do uso massivo das plataformas digitais sobre o trabalho autônomo e os impactos da grande exploração laboral proveniente da ausência de regulamentação. 

“Tanto o meu trabalho de conclusão de curso, quanto a iniciação científica, ambos na área do Direito e Novas Tecnologias, me possibilitaram uma visão acadêmica mais abrangente”, considera Naomy, que hoje faz cursos de pós-graduação nas áreas de Direito Digital, Proteção de Dados e Novas Tecnologias. “Pretendo continuar me aprofundando nessa área de forma profissional e principalmente acadêmica, sempre voltado à proteção dos Direitos Humanos”, concluiu. 

Leia mais: 
Economia do cuidado: o trabalho invisível que sustenta a sociedade
LGPD Day 2025 debate impacto da inteligência artificial na proteção de dados pessoais

Compartilhe: