Um hacker roubou segredos de IA da OpenAI, e EUA se perguntam: a China poderia fazer isso?
Uma violação de segurança na fabricante do ChatGPT no ano passado revelou discussões internas entre pesquisadores e outros funcionários, mas não o código por trás dos sistemas da OpenAI
No início do ano passado, um hacker obteve acesso aos sistemas internos de mensagens da OpenAI, fabricante do ChatGPT, e roubou detalhes sobre o projeto das tecnologias de inteligência artificial da empresa.
O hacker obteve detalhes de discussões em um fórum on-line em que os funcionários falavam sobre as tecnologias mais recentes da OpenAI, de acordo com duas pessoas familiarizadas com o incidente, mas não entrou nos sistemas em que a empresa abriga e constrói sua IA.
Os executivos da OpenAI revelaram o incidente aos funcionários durante uma reunião geral nos escritórios da empresa em São Francisco em abril de 2023, de acordo com essas pessoas, que discutiram informações confidenciais sobre a empresa sob condição de anonimato.
Mas os executivos decidiram não compartilhar a notícia publicamente porque nenhuma informação sobre clientes ou parceiros havia sido roubada, disseram as duas pessoas.
Os executivos não consideraram o incidente uma ameaça à segurança nacional porque acreditavam que o hacker era um indivíduo privado sem vínculos conhecidos com um governo estrangeiro. A empresa não informou ao FBI ou a qualquer outro órgão de segurança pública.
Para alguns funcionários da OpenAI, a notícia levantou o temor de que adversários estrangeiros, como a China, pudessem roubar a tecnologia de IA que, embora agora seja principalmente uma ferramenta de trabalho e pesquisa, poderia acabar colocando em risco a segurança nacional dos EUA.
Isso também gerou dúvidas sobre a seriedade com que a OpenAI estava tratando a segurança e expôs as fraturas dentro da empresa sobre os riscos da IA.
Após a violação, Leopold Aschenbrenner, um gerente de programa técnico da OpenAI focado em garantir que as futuras tecnologias de IA não causem danos graves, enviou um memorando à diretoria da OpenAI, argumentando que a empresa não estava fazendo o suficiente para impedir que o governo chinês e outros adversários estrangeiros roubassem seus segredos.
Aschenbrenner disse que a OpenAI o demitiu na primavera deste ano por vazar outras informações fora da empresa e argumentou que sua demissão teve motivação política. Ele fez alusão à violação em um podcast recente, mas os detalhes do incidente não foram relatados anteriormente.
Segundo ele, a segurança da OpenAI não era forte o suficiente para proteger contra o roubo de segredos importantes se agentes estrangeiros se infiltrassem na empresa.
"Apreciamos as preocupações que Leopold levantou enquanto estava na OpenAI, e isso não levou à sua separação", disse uma porta-voz da OpenAI, Liz Bourgeois. Referindo-se aos esforços da empresa para criar inteligência artificial geral, uma máquina capaz de fazer qualquer coisa que o cérebro humano possa fazer.
"Embora compartilhemos seu compromisso com a criação de uma inteligência artificial geral (AGI na sigla inglês) segura, discordamos de muitas das alegações que ele fez desde então sobre nosso trabalho"., ela acrescentou.
Os temores de que uma invasão de uma empresa de tecnologia dos EUA possa ter vínculos com a China não são irracionais. No mês passado, Brad Smith, presidente da Microsoft, testemunhou no Capitólio sobre como os hackers chineses usaram os sistemas da gigante da tecnologia para lançar um amplo ataque às redes do governo federal.
No entanto, de acordo com as leis federais e da Califórnia, a OpenAI não pode impedir que as pessoas trabalhem na empresa por causa de sua nacionalidade, e os pesquisadores de políticas afirmaram que barrar os talentos estrangeiros dos projetos dos EUA poderia impedir significativamente o progresso da IA nos Estados Unidos.
"Precisamos das melhores e mais brilhantes mentes trabalhando nessa tecnologia", disse Matt Knight, chefe de segurança da OpenAI, em uma entrevista ao The New York Times. "Ela traz alguns riscos, e precisamos descobrir quais são eles."
(O Times processou a OpenAI e sua parceira, a Microsoft, alegando violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA).
A OpenAI não é a única empresa que está criando sistemas cada vez mais poderosos usando uma tecnologia de IA que está melhorando rapidamente. Algumas delas - principalmente a Meta, proprietária do Facebook e do Instagram - estão compartilhando livremente seus projetos com o resto do mundo como software de código aberto.
Elas acreditam que os perigos apresentados pelas atuais tecnologias de IA são pequenos e que o compartilhamento do código permite que engenheiros e pesquisadores de todo o setor identifiquem e corrijam problemas.
Os sistemas de IA atuais podem ajudar a disseminar a desinformação on-line, incluindo textos, imagens estáticas e, cada vez mais, vídeos. Eles também estão começando a eliminar alguns empregos.
Empresas como a OpenAI e seus concorrentes Anthropic e Google adicionam proteções a seus aplicativos de IA antes de oferecê-los a indivíduos e empresas, na esperança de evitar que as pessoas usem os aplicativos para espalhar desinformação ou causar outros problemas.
Mas não há muitas evidências de que as tecnologias de IA atuais representem um risco significativo à segurança nacional. Estudos realizados pela OpenAI, Anthropic e outros no ano passado mostraram que a IA não era significativamente mais perigosa do que os mecanismos de busca.
Daniela Amodei, cofundadora da Anthropic e presidente da empresa, disse que sua mais recente tecnologia de IA não seria um grande risco se seus projetos fossem roubados ou compartilhados livremente com outras pessoas.
Se fosse propriedade de outra pessoa, isso poderia ser extremamente prejudicial para grande parte da sociedade? Nossa resposta é: "Não, provavelmente não", disse ela ao Times no mês passado. "Isso poderia acelerar algo para um mau ator no futuro? Talvez. Isso é realmente especulativo."
Ainda assim, pesquisadores e executivos de tecnologia há muito se preocupam com a possibilidade de a IA um dia alimentar a criação de novas armas biológicas ou ajudar a invadir os sistemas de computadores do governo. Alguns até acreditam que ela poderia destruir a humanidade.