INTELIGÊNCIA ARTIFICIAL

Google, Meta, OpenAI e Microsoft vão ter "selo" para identificar material produzido por IA

Medida faz parte de acordo firmado pelas big techs com a Casa Branca e inclui compartilhamento de dados com governo e desenvolvimento de ferramentas para curar o câncer e combater mudanças climáticas

Inteligência artificial - Kacper Pempel

Sete das maiores empresas de inteligência artificial (IA) concordaram em adotar medidas de proteção voluntárias no desenvolvimento da tecnologia, segundo a Casa Branca, se comprometendo a lutar por segurança, proteção e confiança mesmo enquanto competem a respeito do potencial da inteligência artificial.

As sete empresas - Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI - vão formalmente anunciar seu compromisso com os novos padrões em um encontro com o presidente Joe Biden na Casa Branca na tarde desta sexta-feira.

Como parte do acordo, as empresas se comprometem a:

Testar a segurança de seus produtos de IA, em parte por especialistas independentes e com informações compartilhadas sobre seus produtos com governos e outros que estejam tentando avaliar os riscos da tecnologia.

Assegurar aos consumidores que sejam capazes de identificar o material gerado por meio do uso de marcas d'água e outros meios de identificação do conteúdo gerado.

Divulgar publicamente os limites e capacidades de seus sistemas de forma regular, incluindo riscos de segurança e provas de que têm viés (preconceito ou discriminação).

Desenvolver ferramentas avançadas de inteligência artificial para enfrentar os maiores desafios da sociedade, como curar o câncer e combater as mudanças climáticas.

Conduzir pesquisas sobre os riscos do viés (preconceito), discriminação e invasão de privacidade pela disseminação de ferramentas de IA.

O anúncio é feito no momento em que as empresas tentam superar as rivas com versões de IA que oferecem poderosas ferramentas para criar textos, fotos, música e vídeo criados pela máquina. Mas o salto tecnológico desencadeou temor de que as ferramentas facilitem a disseminação de desinformação e levou a alertas de "risco de extinção".
 

Nesta semana, a Meta, dona do Facebook, anunciou sua própria ferramenta de IA, o Llama 2, e disse que iria divulgar o código publicamente. Nick Clegg, presidente de Assuntos Globais da Meta, disse em nota que sua empresa apoia as medidas de proteção elaboradas pela Casa Branca.

- Este é um primeiro passo importante para assegurar que sejam definidos limites responsáveis para a IA e que seja criado um modelo que pode ser seguido por outros governos - afirmo Clegg.

As medidas de proteção anunciadas nesta sexta-feira são apenas um passo inicial enquanto os EUA e governos ao redor do planeta colocam em marcha estruturas legais e regulatórias para o desenvolvimento da inteligência artificial. Integrantes da Casa Branca disseram que o governo estava trabalhando em uma ordem executiva que vai além do anúncio desta sexta e que conta com apoio bipartidário.

"Empresas que estão desenvolvendo estas tecnologias têm a responsabilidade de assegurar que seus produtos sejam seguros", afirmou o governo em nota na qual anuncia o acordo. A nota diz que as empresas devem defender "os mais altos padrões para assegurar que a inovação não venha ao custo dos direitos e da segurança dos americanos".

UE avança no tema
É improvável que o acordo diminua os esforços para aprovar legislação e impor regulação para a tecnologia. Legisladores em Washington estão correndo para se atualizar com o rápido avanço da inteligência artificial. E outros governos estão fazendo o mesmo.

A União Europeia no mês passado avançou no tema. A legislação proposta pelo Parlamento Europeu colocaria limites estritos em alguns usos da IA, incluindo o reconhecimento facial, e exigiria que as empresas divulgassem mais dados sobre seus produtos.