UNIÃO EUROPEIA

Eurodeputados dão primeiro passo para aprovar lei de regulamentação da IA

Em meio ao debate, cientistas renomados pediram uma moratória no desenvolvimento de sistemas mais potentes até a adoção de uma regulamentação legislativa aperfeiçoada

Parlamento Europeu em Estrasburgo (França) - Unsplash

O projeto para regulamentar a Inteligência Artificial (IA) na União Europeia (UE) superou nesta quinta-feira (11) uma etapa crucial, ao receber a primeira aprovação dos eurodeputados, que pediram novas proibições e uma análise mais profunda do fenômeno ChatGPT.

Os eurodeputados das comissões parlamentares de Liberdades Civis e de Proteção dos Consumidores aprovaram por ampla maioria a limitação do uso da IA no bloco, mas com a continuidade dos incentivos ao setor.

O texto será apresentado ao plenário do Parlamento em junho e, em caso de aprovação, as negociações terão início com os Estados membros da UE para redação de uma lei definitiva.

A Comissão Europeia propôs há dois anos um projeto ambicioso de regulamentação e os países membros definiram suas posições no fim de 2022.

Mas a análise parlamentar foi mais longa que o previsto e sofreu um adiamento nos últimos meses devido às polêmicas sobre os perigos das ferramentas de IA capazes de criar textos ou imagens.

Os eurodeputados consideraram a votação desta quinta-feira "histórica" e afirmaram que esperam concluir o processo com a implementação da "primeira norma do mundo sobre a IA".

O texto aprovado inclui alguns dos principais eixos da proposta apresentada em 2021 pela Comissão Europeia, mas também sugere a proibição da vigilância biométrica, do reconhecimento de emoções e dos sistemas de IA para vigilância policial de modo preditivo.

Riscos de manipulação
"Recebemos mais de 3.000 emendas. Basta ligar a televisão, a cada dia vemos como este assunto é importante para os cidadãos", afirmou o eurodeputado liberal romeno Dragos Tudorache, um dos idealizadores do texto.

O social-democrata italiano Brando Benifei disse que a "Europa quer uma abordagem ética, baseada no ser humano".

Os sistemas de IA têm grande complexidade técnica e as ferramentas provocam fascínio, mas também grande preocupação.

De um lado podem salvar vidas ao permitir um importante avanço nos diagnósticos médicos, mas também podem ser utilizados por regimes autoritários para implementar uma vigilância em larga escala da população.

A opinião pública descobriu o grande potencial dos sistemas no fim do ano passado com o ChatGPT, da empresa californiana OpenAI, que é capaz de escrever ensaios, poemas ou executar traduções em poucos segundos.

Mas a divulgação nas redes sociais de imagens falsas que parecem muito realistas, criadas com apps como o Midjourney, provocou um alerta sobre os riscos de manipulação da opinião pública.

Em meio ao debate, cientistas renomados pediram uma moratória no desenvolvimento de sistemas mais potentes até a adoção de uma regulamentação legislativa aperfeiçoada.

O texto aprovado nesta quinta-feira é baseado na regulamentação em vigor sobre a segurança dos produtos e impõe controles que são, em sua maioria, responsabilidade das empresas.

Humanos devem manter o controle
O núcleo do rascunho do projeto é criar uma lista de regras que serão impostas apenas aos aplicativos considerados de "alto risco", uma classificação que deve ser adotada pelas próprias empresas, com base nos critérios estabelecidos pelos legisladores.

Para a Comissão Europeia, isto inclui todos os sistemas usados em âmbitos como infraestrutura crítica, educação, recursos humanos, controle da ordem ou gestão da migração.

Entre as obrigações pretendidas estão o controle por um ser humano da máquina, o estabelecimento de documentação técnica e a criação de um sistema de gestão de riscos.

A fiscalização do cumprimento das regras seria uma responsabilidade das autoridades designadas por cada Estado do bloco.

O Parlamento Europeu também busca uma consideração maior das ferramentas de IA que geram conteúdo, como o ChatGPT, ao defender a criação de um regime específico de obrigações do mesmo tipo que o adotado para os sistemas de alto risco.

A CCIA ('Computer & Communications Industry Association'), que faz lobby para as grandes empresas de tecnologia, afirmou que "embora o Parlamento tenha feito algumas melhorias no texto", ao mesmo tempo está "abandonando a abordagem baseada no risco" da proposta da Comissão Europeia.

"A melhor forma para a UE inspirar outras jurisdições é garantir que a nova regulamentação permita, e não iniba, o desenvolvimento de aplicativos úteis de IA”, declarou Boniface de Champris, diretor de políticas para a Europa da CCIA.