Brasil, EUA, China e outros países assinam 1ª declaração mundial sobre riscos da IA
O documento destaca a necessidade urgente de compreender e administrar coletivamente os riscos potenciais da tecnologia
Estados Unidos, China, UE e cerca de outros 20 países assinaram nesta quarta-feira (1º), no Reino Unido, a Declaração de Bletchley para um desenvolvimento "seguro" da Inteligência Artificial (IA), na primeira cúpula internacional sobre o auge desta tecnologia.
"Esta declaração histórica marca o começo de um novo esforço mundial para aumentar a confiança do público na IA, garantindo que seja segura", disse o primeiro-ministro britânico, Rishi Sunak, no X (antigo Twitter).
This landmark declaration marks the start of a new global effort to build public trust in AI by making sure it’s safe https://t.co/EHACt7kRId
— Rishi Sunak (@RishiSunak) November 1, 2023
No documento, que inclui Brasil e Chile entre seus signatários, destaca-se "a necessidade urgente de compreender e administrar coletivamente os riscos potenciais" da IA.
Ante o crescente potencial de modelos como ChatGPT, a Declaração de Bletchley "mostra que, pela primeira vez, o mundo se reúne para identificar o problema e destacar suas oportunidades", destacou à AFP a ministra britânica de Tecnologia, Michelle Donelan.
A reunião "não tem como objetivo lançar as bases de uma legislação mundial, mas deve servir para traçar um caminho a seguir", detalhou.
Duas cúpulas internacionais sobre a IA ocorrerão posteriormente: uma, na Coreia do Sul, dentro de seis meses; e outra, na França, dentro de um ano, afirmou a ministra no emblemático centro onde foram decifrados os códigos secretos nazistas na Segunda Guerra Mundial.
Paralelamente ao encontro, a vice-presidente americana, Kamala Harris, deve anunciar em um discurso em Londres a criação de um instituto sobre a segurança da Inteligência Artificial em Washington.
Esta estrutura - similar à anunciada pelo Reino Unido - reunirá especialistas para estabelecer "diretrizes" e analisar os modelos de IA mais avançados para "identificar e mitigar" os riscos, segundo a Casa Branca.
Os modelos de IA generativa - capazes de produzir textos, sons, ou imagens, em apenas alguns segundos - fizeram avanços gigantescos nos últimos anos. E as próximas gerações desses modelos serão lançadas no verão.
Leia também
• Parkinson: poluição do ar aumenta risco de incidência da doença
• Braga Netto diz que vai recorrer de decisão do TSE
• Entenda em cinco pontos por que a arrecadação do governo está em queda
A tecnologia suscita grandes esperanças na medicina e na educação, mas também pode desestabilizar sociedades, permitindo fabricar armas, ou escapando ao controle humano, advertiu o governo britânico.
"A portas fechadas"
Depois deste primeiro dia dedicado aos perigos potenciais de uma IA mais avançada, são esperados representantes políticos de alto nível na quinta-feira no Bletchley Park.
Entre eles, a presidente da Comissão Europeia, Ursula von der Leyen, o secretário-geral da ONU, António Guterres, e a chefe do Governo italiano, Georgia Meloni.
O bilionário americano Elon Musk, presente na cúpula nesta quarta-feira, conversará com o primeiro-ministro britânico, Rishi Sunak, na noite de quinta-feira.
"Nosso objetivo é estabelecer um marco para uma melhor compreensão (...) e para que haja ao menos um árbitro independente que possa observar o que as empresas de IA estão fazendo e dê sinal de alarme se algo lhe preocupar", disse Musk à imprensa.
"Minha esperança para esta cúpula é que haja um consenso internacional sobre a compreensão inicial da IA avançada", afirmou.
Em uma carta aberta publicada na terça-feira, vários dos "pais fundadores" dessa tecnologia, como Yoshua Bengio e Geoffrey Hinton, pediram "a elaboração e a ratificação de um tratado internacional sobre IA", para reduzir os "riscos potencialmente catastróficos que os sistemas avançados representam para a humanidade".
O principal desafio é definir salvaguardas sem impor obstáculos à inovação nos laboratórios de IA e nos gigantes tecnológicos.
União Europeia (UE) e Estados Unidos, ao contrário do Reino Unido, escolheram a regulamentação.
Várias empresas, como OpenAI, Meta (Facebook) e DeepMind (Google), concordaram na semana passada em tornar públicas algumas das suas regras de segurança de IA, depois da solicitação do Reino Unido.
Em uma carta aberta dirigida ao premiê britânico, quase 100 organizações, especialistas e ativistas internacionais lamentaram que essa reunião aconteça "a portas fechadas", dominada por gigantes da tecnologia e com acesso limitado à sociedade civil.