Conselho da União Europeia aprova Lei de Inteligência Artificial, com regulação da nova tecnologia
Legislação poderá definir padrão para definição de parâmetros para o desenvolvimento da nova tecnologia
O Conselho da União Europeia (UE) aprovou ontem a Lei de Inteligência Artificial, considerada uma das mais abrangentes iniciativas de regulação da nova tecnologia.
Com uma abordagem baseada nos riscos — quanto maior o risco de que uma atividade cause danos à sociedade, mais duras são as regras —, a legislação europeia poderá estabelecer um padrão de regulação da inteligência artificial (IA).
Com a aprovação no Conselho, a nova lei será publicada no Diário Oficial da UE nos próximos dias e entrará em vigor 20 dias após a publicação. Pelas regras da própria legislação, a regulação será aplicada dois anos depois, com “algumas exceções” para casos específicos, segundo comunicado divulgado pela UE.
Os países da UE chegaram a um acordo sobre a nova lei em dezembro passado. Em março deste ano, o texto legal fpo aprovado pelo Parlamento Europeu. A aprovação pelo Conselho da UE é a etapa final.
“A nova lei tem como objetivo promover o desenvolvimento e a adoção de sistemas de IA seguros e confiáveis em todo o mercado único da UE, tanto por atores privados quanto públicos. Ao mesmo tempo, visa garantir o respeito aos direitos fundamentais dos cidadãos da UE e estimular o investimento e a inovação em inteligência artificial na Europa”, diz o comunicado divulgado ontem pela UE.
A nova lei tem como objetivo abordar as preocupações sobre preconceito, privacidade e outros riscos da IA, segundo reportagem de março da agência Bloomberg, que registra uma preocupação das empresas de tecnologia, para as quais a lei seria abrangente demais.
A lei não cita especificamente a remuneração do conteúdo usada pelas plataformas de IA, mas determina que essas ferramentas respeitem as leis europeias de direitos autorais.
Compromissos voluntários
Também ontem. as principais empresas de tecnologia anunciaram que pretendem aderir a uma nova rodada de compromissos voluntários sobre segurança da IA, informaram os governos do Reino Unido e da Coreia do Sul, antes da abertura de uma cúpula global sobre a tecnologia, em Seul.
Segundo o jornal Financial Times, as gigantes da tecnologia Amazon, Google, Meta e Microsoft, bem como a OpenAI, a xAI, de Elon Musk, e a desenvolvedora chinesa Zhipu AI, estão entre as empresas que assumiram compromissos voluntários.
Os compromissos incluem o desligamento de sistemas se não conseguirem controlar os riscos mais extremos. O anúncio se baseia na chamada Declaração de Bletchley, feita na primeira Cúpula de Segurança de IA, organizada pelo primeiro-ministro do Reino Unido, Rishi Sunak, em novembro.
No evento de Seul, o secretário-geral da Organização das Nações Unidas (ONU), Antonio Guterres, chamou a atenção para os riscos, em um discurso por vídeo:
— Não podemos entrar em um futuro distópico em que o poder da IA é controlado por poucas pessoas, ou pior, por algoritmos além da compreensão humana.