Apple aceita cumprir salvaguardas da Casa Branca para o uso de IA Generativa
A aplicação da IA generativa promete importantes avanços em áreas como a medicina
A Casa Branca informou nesta sexta-feira (26) que a Apple se juntou a mais de uma dezena de empresas de tecnologia que se comprometeram a seguir regras para limitar os riscos da inteligência artificial (IA) generativa.
Amazon, Google, Microsoft e OpenAI são algumas das rivais do setor que se uniram às autoridades dos Estados Unidos neste pacto voluntário há um ano.
Na ocasião, a administração do presidente Joe Biden afirmou ter obtido o compromisso das empresas "para avançar em um desenvolvimento seguro e transparente da tecnologia de IA".
Leia também
• O que se sabe sobre as prisões nos EUA dos dois principais líderes do Cartel de Sinaloa do México
• Green card para brasileiros: EUA atinge recorde, diz estudo
• Haddad: há interesse de Brasil e EUA em envolver setor privado para estimular matriz limpa
No início de junho, a Apple lançou o Apple Intelligence, que visa otimizar o uso da IA generativa em seus dispositivos, como o iPhone e o Mac. A empresa também prevê uma parceria com a OpenAI, que permitirá que o aplicativo ChatGPT seja usado em seus smartphones a pedido do usuário.
A aplicação da IA generativa, que permite produzir rapidamente imagens, sons e vídeos com uma simples solicitação verbal, promete importantes avanços em áreas como a medicina, mas gera preocupações sobre o aumento da desinformação, a perda massiva de empregos ou o roubo de propriedade intelectual.
Também acende alertas sobre o possível uso da IA por regimes autoritários ou organizações criminosas.
As salvaguardas acordadas com as empresas de tecnologia incluem a simulação de ataques em modelos de IA, uma técnica chamada "red teaming" que busca expor possíveis vulnerabilidades.
De acordo com a Casa Branca, os modelos ou sistemas de teste de IA devem incluir riscos para a sociedade e para a segurança nacional, assim como ciberataques e o desenvolvimento de armas biológicas.
O compromisso assinado também prevê que as empresas compartilhem informações entre si e com o governo sobre os riscos da IA e tentativas de burlar as defesas.
No final do ano passado, Biden assinou uma ordem executiva estabelecendo novos padrões de segurança para os sistemas de IA e exigindo que os desenvolvedores compartilhem os resultados de seus testes de segurança com o governo dos Estados Unidos.
A Casa Branca indicou que a ordem executiva incluía a maior série de ações "nunca antes adotadas para proteger os americanos do risco potencial dos sistemas de IA".