Casa Branca convoca Google e Microsoft para discutir riscos de inteligência artificial
Vice-presidente Kamala Harris terá reunião nesta quinta-feira com CEOs de gigantes da tecnologia. Governo vai destinar US$ 140 milhões a centros de pesquisa sobre a tecnologia
A Casa Branca anunciou nesta quinta-feira (3) novas iniciativas destinadas a reduzir os riscos da inteligência artificial desde que um boom de chatbots movidos a IA, como o ChatGPT e o Bard, levou a pedidos crescentes para regulamentar a nova tecnologia para que seu uso seja seguro para o público.
A National Science Foundation, uma fundação do governo, vai gastar US$ 140 milhões em sete novos centros de pesquisa dedicados à IA, disseram autoridades da Casa Branca, que também se comprometeu a divulgar diretrizes preliminares para agências governamentais para garantir que o uso da inteligência artificial salvaguarde “os direitos e a segurança do povo americano”.
A Casa Branca acrescentou que várias empresas que desenvolvem a nova tecnologia concordaram em disponibilizar seus produtos para análise em agosto, em uma conferência de segurança cibernética. Na segunda-feira, Geoffrey Hinton, ‘o poderoso chefão da IA’ deixou seu emprego no Google, onde trabalhou por mais de uma década e se tornou uma das vozes mais respeitadas na área, para falar livremente sobre os riscos da inteligência artificial.
A inteligência artificial generativa tornou-se uma palavra da moda este ano, com aplicativos como o ChatGPT conquistando a atenção do público, provocando uma corrida entre as empresas para lançar produtos similares.
Leia também
• Estudo mostra que Google falhou em remover anúncios de vídeos com conteúdo negacionista do clima
• Discord, Google, Instagram e TikTok: relatos de abusos contra crianças aumentam nos EUA
• IBM vai suspender contratação para vagas que podem ser executadas por inteligência artificial
Os anúncios foram feitos horas antes de a vice-presidente Kamala Harris e outros funcionários do governo se reunirem nesta quinta-feira com os CEOS do Google, Microsoft, OpenAI, fabricante do ChatGPT, e Anthropic, startup que desenvolveu um sistema de inteligência artificial, para discutir a tecnologia.
Na quarta-feira (3), um alto funcionário do governo disse que a Casa Branca planejava pressionar as empresas de que elas têm a responsabilidade de lidar com os riscos de novos produtos de IA.
A Casa Branca está sob crescente pressão para policiar a IA, cujo interesse explodiu começou no ano passado, quando a OpenAI lançou o ChatGPT para o público e as pessoas imediatamente começaram a usá-lo para buscar informações, fazer trabalhos escolares e ajudá-los nas tarefas profissionais. Desde então, algumas das maiores empresas de tecnologia correram para incorporar chatbots em seus produtos e aceleraram a pesquisa de IA, enquanto os capitalistas de risco despejaram dinheiro em startups de IA.
No entanto, o boom da IA também levantou questões sobre como a tecnologia transformará as economias, sacudirá a geopolítica e fortalecerá a atividade criminosa. Os críticos temem que muitos sistemas de inteligência artificial sejam obscuros, mas extremamente poderosos, com potencial para tomar decisões discriminatórias, substituir pessoas em seus empregos, espalhar desinformação e talvez até infringir a lei por conta própria.
Recentemente, o presidente Joe Biden ressaltou que “resta verificar” se a IA é perigosa, e que alguns de seus principais indicados prometeram intervir se a tecnologia for usada de maneira prejudicial.
Porta-vozes do Google e da Microsoft se recusaram a comentar antes da reunião na Casa Branca. Um porta-voz da Anthropic confirmou que a empresa estaria presente no encontro. Uma porta-voz da OpenAI não respondeu a um pedido de comentário.
Os anúncios se baseiam em esforços anteriores do governo para colocar grades de proteção em inteligência artificial. No ano passado, a Casa Branca divulgou o que chamou de “Projeto para uma Declaração de Direitos da IA”, que dizia que os sistemas automatizados deveriam proteger a privacidade dos dados dos usuários, protegê-los de resultados discriminatórios e deixar claro por que certas ações foram tomadas. Em janeiro, o Departamento de Comércio também divulgou uma estrutura para reduzir o risco em IA, que estava em desenvolvimento há anos.
A introdução de chatbots como o ChatGPT e o Bard, do Google, colocou uma enorme pressão para que os governos agissemo. A União Europeia, que já vinha negociando regulamentações para IA, enfrentou novas demandas para regulamentar uma faixa mais ampla da nova tecnologia, em vez de apenas sistemas vistos como inerentemente de alto risco.
Nos Estados Unidos, membros do Congresso, incluindo o senador Chuck Schumer, de Nova York, o líder da maioria, passaram a redigir ou propor legislação para regular a inteligência artificial. Mas é mais provável que medidas concretas para controlar a tecnologia no país venham primeiro das agências policiais em Washington.
Um grupo de agências governamentais se comprometeu em abril a “monitorar o desenvolvimento e o uso de sistemas automatizados e promover a inovação responsável”, punindo as violações da lei cometidas com o uso da tecnologia.
Pouco depois de Biden anunciar sua candidatura à reeleição, o Comitê Nacional Republicano produziu um vídeo apresentando um futuro distópico durante um segundo mandato de Biden, construído inteiramente com imagens de IA. Acredita-se que esses anúncios políticos se tornem mais comuns à medida que a tecnologia de IA prolifera.
Os reguladores dos Estados Unidos ficaram aquém da abordagem dura que os governos europeus adotaram na regulamentação de tecnologia e na elaboração de regras rígidas sobre falsificações profundas e desinformação que as empresas devem seguir ou arriscar pesadas multas.
Em um artigo publicado no The New York Times na quarta-feira, Lina Khan, presidente da Comissão Federal de Comércio, disse que o país estava em um “ponto de decisão chave” sobre inteligência artificial. Ela comparou os desenvolvimentos recentes da tecnologia ao nascimento de gigantes da tecnologia como Google e Facebook, e alertou que, sem regulamentação adequada, a tecnologia poderia consolidar o poder das big techs e fornecer aos golpistas uma ferramenta poderosa.
"Como o uso de IA se torna mais difundido, os funcionários públicos têm a responsabilidade de garantir que essa história aprendida com muito esforço não se repita", acrescentou.