UNIÃO EUROPEIA

Europa avança em regulação para inteligência artificial, que deve impor limites ao ChatGPT

Parlamentares da UE fecham acordo sobre projeto; confira pontos

União Europeia - Aris Oikonomou/AFP

A União Europeia deu um passo importante para aprovar uma nova regulamentação para ferramentas de inteligência artificial (IA), como o ChatGPT, da OpenAI, e o Bard, do Google. O texto deve ser um dos mais rigorosos em discussão no mundo.

Parlamentares dos comitês de Mercado Interno e de Justiça do Parlamento Europeu chegaram nesta quinta-feira a um acordo sobre o texto base do novo Ato de Inteligência Artificial da UE, que foi aprovado por 84 parlamentares dessas comissões, com sete votos contra e 12 abstenções.

Os principais pontos da lei
Risco:
As empresas que criam modelos de IA "fundacionais", ou seja, a inteligência artificial generativa, capaz de gerar linguagens como textos, códigos ou imagens, precisarão produzir relatórios com avaliações de risco de seu negócio.

Transparência: Essas empresas também terão que deixar claro que conteúdos foram gerados por IA, para garantir que os usuários saibam quando estão interagindo com textos, imagens e vídeos criados dessa forma ou quando estão assistindo a uma 'deepfake'.

Direitos autorais: As empresas também deverão publicar uma lista dos dados protegidos por direitos autorias que tenham sido usados para treinar suas ferramentas, para que os autores sejam devidamente remunerados.

Reconhecimento facial: Haverá praticamente um total banimento dessa prática. Empresas e governos não poderão usar reconhecimento facial em tempo real. O reconhecimento facial será aceito apenas em circunstâncias limitadas, como, por exemplo, na eventualidade de uma ameaça terrorista, segundo fontes a par das negociações.

Longa negociação
O texto acordado nesta quinta-feira envolveu uma das mais difíceis negociações na história do Parlamento europeu, com mais de mil emendas.

- O Ato de Inteligência Artificial será a primeira legislação deste tipo no mundo. A UE pode liderar, globalmente, em fazer da IA uma tecnologia centrada no ser humano, confiável e segura - afirmou ao jornal britânico Financial Times o eurodeputado romeno Dragos Tudorache, que liderou a articulação da proposta.

A União Europeia pretende ser a pioneira no mundo a adotar um quadro jurídico abrangente para limitar os excessos da inteligência artificial, mas, ao mesmo tempo, garantir a inovação. Entre as preocupações na Europa estão a difusão de conteúdos perigosos, a manipulação de opinião através da criação de imagens falsas e os modelos de vigilância em massa.

Após passar pelas comissões, o texto deverá ser votado no Parlamento Europeu em junho. Em seguida, o parlamento terá que negociar um acordo final com a Comissão Europeia e os 27 estados membros da UE.

Em todo o mundo, governos e reguladores estão tentando criar regras para a inteligência artificial, depois que novos modelos de IA generativa, como o ChatGPT, deram um salto de popularidade e acesso este ano.

Na semana passada, a Comissão de Comércio dos EUA, publicou um alerta às empresas do setor, informando que iria "observar intensamente se as companhias estão adotando a tecnologia de IA, incluindo as novas ferramentas de IA generativa, de maneira que possa ter impacto real e substancial para os consumidores".

Na próxima semana, o subcomitê do Senado americano responsável por criar a regulamentação em IA vai ouvir o CEO da OpenAI, Sam Altman, que foi convocado para uma audiência pública sobre o tema. E, na semana passada, a vice-presidente dos EUA, Kamala Harris, disse que a Casa Branca vai apoiar a nova regulamentação, após realizar um encontro com Altman e outros CEOs, como os de Alphabet (controladora do Google), Microsoft e Anthropic.

- Essa abordagem pode produzir algum efeito de Bruxelas em termos não apenas de influenciar as práticas regulatórias do mundo, mas também fazer o resto do mundo iniciar a discussão - disse Brando Benifei, um dos principais autores da Lei de IA no parlamento, antes da votação.

Os formuladores de políticas em todo o mundo estão lutando para atenuar os riscos de um boom de ferramentas de IA generativas que permitem que as pessoas criem conteúdo como texto e imagens com prompts simples.

O CEO da OpenAI, Sam Altman, deve testemunhar perante o Senado dos Estados Unidos na próxima semana, falando ao subcomitê responsável pela regulamentação dos desenvolvimentos em IA, à medida que começa a explorar possíveis padrões para o setor.

Altman pediu aos reguladores que abordem os possíveis danos à sociedade, à medida que grandes empresas de tecnologia correm para desenvolver e lançar versões mais avançadas de modelos de IA.

O debate sobre se a UE deveria regulamentar especificamente a IA generativa em sua Lei de IA começou depois que uma versão atualizada do ChatGPT foi lançada no início deste ano, executando tarefas humanas de forma convincente, como fazer testes, escrever e-mails e produzir código de computador.

A tecnologia gerou preocupações de que a IA generativa pudesse espalhar desinformação e violar as leis de proteção de dados e direitos autorais.

Em março, especialistas em inteligência artificial e líderes do setor, incluindo Elon Musk; o professor de ciência da computação da Universidade da Califórnia em Berkeley, Stuart Russell; e o cofundador da Apple, Steve Wozniak, pediram aos desenvolvedores que fizessem uma pausa de seis meses no treinamento de modelos poderosos para permitir o desenvolvimento de protocolos de segurança compartilhados.