Europa avança em regulação para inteligência artificial, que deve impor limites ao ChatGPT
Parlamentares da UE fecham acordo sobre projeto; confira pontos
A União Europeia deu um passo importante para aprovar uma nova regulamentação para ferramentas de inteligência artificial (IA), como o ChatGPT, da OpenAI, e o Bard, do Google. O texto deve ser um dos mais rigorosos em discussão no mundo.
Parlamentares dos comitês de Mercado Interno e de Justiça do Parlamento Europeu chegaram nesta quinta-feira a um acordo sobre o texto base do novo Ato de Inteligência Artificial da UE, que foi aprovado por 84 parlamentares dessas comissões, com sete votos contra e 12 abstenções.
Os principais pontos da lei
Risco: As empresas que criam modelos de IA "fundacionais", ou seja, a inteligência artificial generativa, capaz de gerar linguagens como textos, códigos ou imagens, precisarão produzir relatórios com avaliações de risco de seu negócio.
Transparência: Essas empresas também terão que deixar claro que conteúdos foram gerados por IA, para garantir que os usuários saibam quando estão interagindo com textos, imagens e vídeos criados dessa forma ou quando estão assistindo a uma 'deepfake'.
Direitos autorais: As empresas também deverão publicar uma lista dos dados protegidos por direitos autorias que tenham sido usados para treinar suas ferramentas, para que os autores sejam devidamente remunerados.
Reconhecimento facial: Haverá praticamente um total banimento dessa prática. Empresas e governos não poderão usar reconhecimento facial em tempo real. O reconhecimento facial será aceito apenas em circunstâncias limitadas, como, por exemplo, na eventualidade de uma ameaça terrorista, segundo fontes a par das negociações.
Longa negociação
O texto acordado nesta quinta-feira envolveu uma das mais difíceis negociações na história do Parlamento europeu, com mais de mil emendas.
- O Ato de Inteligência Artificial será a primeira legislação deste tipo no mundo. A UE pode liderar, globalmente, em fazer da IA uma tecnologia centrada no ser humano, confiável e segura - afirmou ao jornal britânico Financial Times o eurodeputado romeno Dragos Tudorache, que liderou a articulação da proposta.
A União Europeia pretende ser a pioneira no mundo a adotar um quadro jurídico abrangente para limitar os excessos da inteligência artificial, mas, ao mesmo tempo, garantir a inovação. Entre as preocupações na Europa estão a difusão de conteúdos perigosos, a manipulação de opinião através da criação de imagens falsas e os modelos de vigilância em massa.
Após passar pelas comissões, o texto deverá ser votado no Parlamento Europeu em junho. Em seguida, o parlamento terá que negociar um acordo final com a Comissão Europeia e os 27 estados membros da UE.
Em todo o mundo, governos e reguladores estão tentando criar regras para a inteligência artificial, depois que novos modelos de IA generativa, como o ChatGPT, deram um salto de popularidade e acesso este ano.
Na semana passada, a Comissão de Comércio dos EUA, publicou um alerta às empresas do setor, informando que iria "observar intensamente se as companhias estão adotando a tecnologia de IA, incluindo as novas ferramentas de IA generativa, de maneira que possa ter impacto real e substancial para os consumidores".
Na próxima semana, o subcomitê do Senado americano responsável por criar a regulamentação em IA vai ouvir o CEO da OpenAI, Sam Altman, que foi convocado para uma audiência pública sobre o tema. E, na semana passada, a vice-presidente dos EUA, Kamala Harris, disse que a Casa Branca vai apoiar a nova regulamentação, após realizar um encontro com Altman e outros CEOs, como os de Alphabet (controladora do Google), Microsoft e Anthropic.
- Essa abordagem pode produzir algum efeito de Bruxelas em termos não apenas de influenciar as práticas regulatórias do mundo, mas também fazer o resto do mundo iniciar a discussão - disse Brando Benifei, um dos principais autores da Lei de IA no parlamento, antes da votação.
Os formuladores de políticas em todo o mundo estão lutando para atenuar os riscos de um boom de ferramentas de IA generativas que permitem que as pessoas criem conteúdo como texto e imagens com prompts simples.
O CEO da OpenAI, Sam Altman, deve testemunhar perante o Senado dos Estados Unidos na próxima semana, falando ao subcomitê responsável pela regulamentação dos desenvolvimentos em IA, à medida que começa a explorar possíveis padrões para o setor.
Altman pediu aos reguladores que abordem os possíveis danos à sociedade, à medida que grandes empresas de tecnologia correm para desenvolver e lançar versões mais avançadas de modelos de IA.
O debate sobre se a UE deveria regulamentar especificamente a IA generativa em sua Lei de IA começou depois que uma versão atualizada do ChatGPT foi lançada no início deste ano, executando tarefas humanas de forma convincente, como fazer testes, escrever e-mails e produzir código de computador.
A tecnologia gerou preocupações de que a IA generativa pudesse espalhar desinformação e violar as leis de proteção de dados e direitos autorais.
Em março, especialistas em inteligência artificial e líderes do setor, incluindo Elon Musk; o professor de ciência da computação da Universidade da Califórnia em Berkeley, Stuart Russell; e o cofundador da Apple, Steve Wozniak, pediram aos desenvolvedores que fizessem uma pausa de seis meses no treinamento de modelos poderosos para permitir o desenvolvimento de protocolos de segurança compartilhados.