Logo Folha de Pernambuco

UNIÃO EUROPEIA

Europa avança em regulação para inteligência artificial, que deve impor limites ao ChatGPT

Parlamentares da UE fecham acordo sobre projeto; confira pontos

União EuropeiaUnião Europeia - Foto: Aris Oikonomou/AFP

A União Europeia deu um passo importante para aprovar uma nova regulamentação para ferramentas de inteligência artificial (IA), como o ChatGPT, da OpenAI, e o Bard, do Google. O texto deve ser um dos mais rigorosos em discussão no mundo.

Parlamentares dos comitês de Mercado Interno e de Justiça do Parlamento Europeu chegaram nesta quinta-feira a um acordo sobre o texto base do novo Ato de Inteligência Artificial da UE, que foi aprovado por 84 parlamentares dessas comissões, com sete votos contra e 12 abstenções.

Os principais pontos da lei
Risco:
As empresas que criam modelos de IA "fundacionais", ou seja, a inteligência artificial generativa, capaz de gerar linguagens como textos, códigos ou imagens, precisarão produzir relatórios com avaliações de risco de seu negócio.

Transparência: Essas empresas também terão que deixar claro que conteúdos foram gerados por IA, para garantir que os usuários saibam quando estão interagindo com textos, imagens e vídeos criados dessa forma ou quando estão assistindo a uma 'deepfake'.

Direitos autorais: As empresas também deverão publicar uma lista dos dados protegidos por direitos autorias que tenham sido usados para treinar suas ferramentas, para que os autores sejam devidamente remunerados.

Reconhecimento facial: Haverá praticamente um total banimento dessa prática. Empresas e governos não poderão usar reconhecimento facial em tempo real. O reconhecimento facial será aceito apenas em circunstâncias limitadas, como, por exemplo, na eventualidade de uma ameaça terrorista, segundo fontes a par das negociações.

Longa negociação
O texto acordado nesta quinta-feira envolveu uma das mais difíceis negociações na história do Parlamento europeu, com mais de mil emendas.

- O Ato de Inteligência Artificial será a primeira legislação deste tipo no mundo. A UE pode liderar, globalmente, em fazer da IA uma tecnologia centrada no ser humano, confiável e segura - afirmou ao jornal britânico Financial Times o eurodeputado romeno Dragos Tudorache, que liderou a articulação da proposta.

A União Europeia pretende ser a pioneira no mundo a adotar um quadro jurídico abrangente para limitar os excessos da inteligência artificial, mas, ao mesmo tempo, garantir a inovação. Entre as preocupações na Europa estão a difusão de conteúdos perigosos, a manipulação de opinião através da criação de imagens falsas e os modelos de vigilância em massa.

Após passar pelas comissões, o texto deverá ser votado no Parlamento Europeu em junho. Em seguida, o parlamento terá que negociar um acordo final com a Comissão Europeia e os 27 estados membros da UE.

Em todo o mundo, governos e reguladores estão tentando criar regras para a inteligência artificial, depois que novos modelos de IA generativa, como o ChatGPT, deram um salto de popularidade e acesso este ano.

Na semana passada, a Comissão de Comércio dos EUA, publicou um alerta às empresas do setor, informando que iria "observar intensamente se as companhias estão adotando a tecnologia de IA, incluindo as novas ferramentas de IA generativa, de maneira que possa ter impacto real e substancial para os consumidores".

Na próxima semana, o subcomitê do Senado americano responsável por criar a regulamentação em IA vai ouvir o CEO da OpenAI, Sam Altman, que foi convocado para uma audiência pública sobre o tema. E, na semana passada, a vice-presidente dos EUA, Kamala Harris, disse que a Casa Branca vai apoiar a nova regulamentação, após realizar um encontro com Altman e outros CEOs, como os de Alphabet (controladora do Google), Microsoft e Anthropic.

- Essa abordagem pode produzir algum efeito de Bruxelas em termos não apenas de influenciar as práticas regulatórias do mundo, mas também fazer o resto do mundo iniciar a discussão - disse Brando Benifei, um dos principais autores da Lei de IA no parlamento, antes da votação.

Os formuladores de políticas em todo o mundo estão lutando para atenuar os riscos de um boom de ferramentas de IA generativas que permitem que as pessoas criem conteúdo como texto e imagens com prompts simples.

O CEO da OpenAI, Sam Altman, deve testemunhar perante o Senado dos Estados Unidos na próxima semana, falando ao subcomitê responsável pela regulamentação dos desenvolvimentos em IA, à medida que começa a explorar possíveis padrões para o setor.

Altman pediu aos reguladores que abordem os possíveis danos à sociedade, à medida que grandes empresas de tecnologia correm para desenvolver e lançar versões mais avançadas de modelos de IA.

O debate sobre se a UE deveria regulamentar especificamente a IA generativa em sua Lei de IA começou depois que uma versão atualizada do ChatGPT foi lançada no início deste ano, executando tarefas humanas de forma convincente, como fazer testes, escrever e-mails e produzir código de computador.

A tecnologia gerou preocupações de que a IA generativa pudesse espalhar desinformação e violar as leis de proteção de dados e direitos autorais.

Em março, especialistas em inteligência artificial e líderes do setor, incluindo Elon Musk; o professor de ciência da computação da Universidade da Califórnia em Berkeley, Stuart Russell; e o cofundador da Apple, Steve Wozniak, pediram aos desenvolvedores que fizessem uma pausa de seis meses no treinamento de modelos poderosos para permitir o desenvolvimento de protocolos de segurança compartilhados.

Veja também

Wall Street fecha em alta com Dow Jones atingindo novo recorde
Bolsa de Nova York

Wall Street fecha em alta com Dow Jones atingindo novo recorde

Câmera de segurança filma momento em que robô com IA convence outros a "deixarem seus empregos"
IA

Câmera de segurança filma momento em que robô com IA convence outros a "deixarem seus empregos"

Newsletter