ESTUDE NA UNIT
MENU

Copilot ferramenta de IA que sugere código a desenvolvedores causa polêmica

A nova ferramenta da Microsoft desenvolvida para agilizar o trabalho de programadores é considerada uma forma de pirataria intelectual

às 13h36
Imagem: Freepik
Imagem: Freepik
Compartilhe:

No fim de junho de 2022, a Microsoft lançou um novo tipo de tecnologia de inteligência artificial (IA) que poderia gerar seu próprio código de computador. Chamada de Copilot, a ferramenta foi desenvolvida para agilizar o trabalho de programadores, no entanto, profissionais consideram o dispositivo como  pirataria intelectual.

A polêmica iniciou após o programador, designer, escritor e advogado de Los Angeles, Matthew Butterick, se reunir com um grupo de advogados e entrar com uma ação contra a Microsoft e outras empresas de tecnologia que projetaram e implantaram o Copilot.

A nova ferramenta cria os próprios códigos de computador prontos e instantaneamente em blocos de notas enquanto os usuários digitam em seus laptops. Embora inovadora, a ferramenta foi considerada por Matthew como um tipo de pirataria intelectual, que deu entrada em uma class action – modalidade prevista no direito americano na qual alguém que se sente lesado conclama outras pessoas na mesma situação a aderirem no processo.

Copilot

Como muitas tecnologias de IA de ponta, o Copilot desenvolveu suas habilidades analisando grandes quantidades de dados. Nesse caso, contou com bilhões de linhas de código de computador postadas na internet. Butterick, de 52 anos, compara esse processo à pirataria, pois argumenta que o sistema não reconhece sua semelhança com um trabalho já previamente existente.

No processo judicial, Butterick alega que a Microsoft e seus colaboradores violaram os direitos legais de milhões de programadores que passaram anos escrevendo os códigos originais nos quais o Copilot se baseia.

Acredita-se que a ação seja o primeiro ataque legal a uma técnica de design chamada “treinamento de inteligência artificial”, que está prestes a refazer a indústria de tecnologia. É uma versão em inteligência artificial de um processo conhecido como machine learning, ou aprendizagem de máquina, na qual os sistemas aprendem ao serem usados a partir de outros sistemas.

Nos últimos anos, muitos artistas, escritores, especialistas e ativistas de privacidade reclamaram que as empresas estão treinando seus sistemas de inteligência artificial usando dados que não lhes pertencem.

E o processo judicial de agora ecoa dilemas que a própria indústria de tecnologia teve que lidar no passado. Nos anos 1990 e 2000, a Microsoft à ascensão do open source (software de código aberto, modelo de programação que pode ser feito de forma colaborativa), vendo-o como uma ameaça existencial ao futuro de seus negócios.

Mas, à medida que a importância do código aberto crescia, a Microsoft incorporou o processo e comprou o GitHub, uma plataforma de hospedagem de código-fonte, na qual programadores constroem, armazenam e compartilham suas linhas de programação.

Quase todas as novas gerações de tecnologia e até mesmo os mecanismos de busca online enfrentaram desafios legais semelhantes. Atualmente existe uma crescente onda de preocupação com a inteligência artificial. Artistas, escritores, compositores e outros profissionais temem cada vez mais que empresas e pesquisadores estejam usando seu trabalho para criar novas tecnologias sem seu consentimento e sem fornecer compensação financeira por isso.

 

Com informações de O Globo

Leia mais: Confira as contribuições da Ciência da Computação no seu dia-a-dia

Compartilhe: