Google, Meta, OpenAI e Microsoft vão ter "selo" para identificar material produzido por IA
Medida faz parte de acordo firmado pelas big techs com a Casa Branca e inclui compartilhamento de dados com governo e desenvolvimento de ferramentas para curar o câncer e combater mudanças climáticas
Sete das maiores empresas de inteligência artificial (IA) concordaram em adotar medidas de proteção voluntárias no desenvolvimento da tecnologia, segundo a Casa Branca, se comprometendo a lutar por segurança, proteção e confiança mesmo enquanto competem a respeito do potencial da inteligência artificial.
As sete empresas - Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI - vão formalmente anunciar seu compromisso com os novos padrões em um encontro com o presidente Joe Biden na Casa Branca na tarde desta sexta-feira.
Como parte do acordo, as empresas se comprometem a:
Testar a segurança de seus produtos de IA, em parte por especialistas independentes e com informações compartilhadas sobre seus produtos com governos e outros que estejam tentando avaliar os riscos da tecnologia.
Assegurar aos consumidores que sejam capazes de identificar o material gerado por meio do uso de marcas d'água e outros meios de identificação do conteúdo gerado.
Divulgar publicamente os limites e capacidades de seus sistemas de forma regular, incluindo riscos de segurança e provas de que têm viés (preconceito ou discriminação).
Desenvolver ferramentas avançadas de inteligência artificial para enfrentar os maiores desafios da sociedade, como curar o câncer e combater as mudanças climáticas.
Conduzir pesquisas sobre os riscos do viés (preconceito), discriminação e invasão de privacidade pela disseminação de ferramentas de IA.
O anúncio é feito no momento em que as empresas tentam superar as rivas com versões de IA que oferecem poderosas ferramentas para criar textos, fotos, música e vídeo criados pela máquina. Mas o salto tecnológico desencadeou temor de que as ferramentas facilitem a disseminação de desinformação e levou a alertas de "risco de extinção".
Leia também
• Inteligência Artificial: Big techs vão assumir compromisso com uso responsável da tecnologia
• Google testa ferramenta com inteligência artificial para redigir notícias
• Microsoft e Meta fecham parceria oferecer sistema de inteligência artificial para empresas
Nesta semana, a Meta, dona do Facebook, anunciou sua própria ferramenta de IA, o Llama 2, e disse que iria divulgar o código publicamente. Nick Clegg, presidente de Assuntos Globais da Meta, disse em nota que sua empresa apoia as medidas de proteção elaboradas pela Casa Branca.
- Este é um primeiro passo importante para assegurar que sejam definidos limites responsáveis para a IA e que seja criado um modelo que pode ser seguido por outros governos - afirmo Clegg.
As medidas de proteção anunciadas nesta sexta-feira são apenas um passo inicial enquanto os EUA e governos ao redor do planeta colocam em marcha estruturas legais e regulatórias para o desenvolvimento da inteligência artificial. Integrantes da Casa Branca disseram que o governo estava trabalhando em uma ordem executiva que vai além do anúncio desta sexta e que conta com apoio bipartidário.
"Empresas que estão desenvolvendo estas tecnologias têm a responsabilidade de assegurar que seus produtos sejam seguros", afirmou o governo em nota na qual anuncia o acordo. A nota diz que as empresas devem defender "os mais altos padrões para assegurar que a inovação não venha ao custo dos direitos e da segurança dos americanos".
UE avança no tema
É improvável que o acordo diminua os esforços para aprovar legislação e impor regulação para a tecnologia. Legisladores em Washington estão correndo para se atualizar com o rápido avanço da inteligência artificial. E outros governos estão fazendo o mesmo.
A União Europeia no mês passado avançou no tema. A legislação proposta pelo Parlamento Europeu colocaria limites estritos em alguns usos da IA, incluindo o reconhecimento facial, e exigiria que as empresas divulgassem mais dados sobre seus produtos.