TECNOLOGIA

Quem é Emmett Shear, CEO interino da OpenAI que substitui Sam Altman?

Ex-presidente-executivo do Twitch abraçou a ideia de que a inteligência artificial pode causar o fim da humanidade

Emmett Shear - Reprodução/Twitter

Quando Emmett Shear, ex-presidente-executivo do site de transmissão ao vivo Twitch, foi nomeado CEO interino da OpenAI na noite de domingo (20), pode parecer que ele foi uma escolha curiosa.

Depois de se formar na faculdade em 2005, ele passou quase toda a sua carreira no Twitch, a plataforma de propriedade da Amazon muito popular entre os jogadores de videogame, à medida que crescia de um site incipiente chamado Justin.tv para um gigante com mais de 30 milhões de espectadores diários, até sair da empresa este ano .

Shear, de 40 anos, um ávido jogador de videogame, era visto como um líder competente que conduziu o Twitch em diversas transições. Mas ele enfrentou críticas, inclusive pela maneira como lidou com as alegações em 2020 de que a cultura do local de trabalho do Twitch era hostil às mulheres e pela lentidão do site em responder a conteúdos prejudiciais.

Alguns funcionários e streamers também reclamaram que seu foco em direcionar o Twitch em direção à lucratividade por meio do corte de custos estava prejudicando a qualidade da plataforma.

Shear também conhece Sam Altman, que foi forçado a deixar a OpenAI pelo conselho de administração na sexta-feira. Os dois faziam parte do mesmo grupo no Y Combinator, o fundo de startup que investiu nas primeiras empresas de ambos.

Mas, em entrevistas e nas mídias sociais, ele articulou uma visão sobre os riscos da inteligência artificial que poderia agradar aos membros da diretoria da OpenAI, que expulsaram Altman, pelo menos em parte, por temerem que ele não estivesse prestando atenção suficiente à possível ameaça representada pela tecnologia da empresa.

Em um podcast sobre tecnologia em junho, Shear expressou suas preocupações sobre o que poderia acontecer se e quando a IA atingisse a inteligência geral artificial, ou I.G.A., um termo para inteligência de nível humano. Ele temia que, nesse momento, um sistema de IA pudesse se tornar tão poderoso que continuasse a se aperfeiçoar sem a necessidade de intervenção humana e tivesse a capacidade de destruir a humanidade.

Shear não foi encontrado para comentar o assunto na segunda-feira. Na manhã de segunda-feira, no X, plataforma anteriormente conhecida como Twitter, ele escreveu que passaria o primeiro mês de sua gestão investigando como Altman havia sido afastado e reformando a equipe administrativa da empresa.

Dependendo dos resultados de "tudo o que aprendermos com isso, promoverei mudanças na organização - até e inclusive pressionando fortemente por mudanças significativas na governança, se necessário", disse ele.

No podcast, Shear discutiu um conceito, frequentemente comentado nos círculos de IA, que se concentra em clipes de papel: Em suma, a ideia é que mesmo dando a uma IA todo-poderosa um objetivo tão mundano quanto fazer o maior número possível de clipes de papel, ela determinaria que erradicar os seres humanos seria a maneira mais eficiente de atingir esse objetivo.

“O primeiro passo é 'Conquistar o planeta', certo? Então eu simplesmente tenho controle sobre tudo. O passo 2 é 'Eu resolvo meu objetivo'”, acrescentou.

Se a IA chegar a esse ponto, ressaltou Shear, a catástrofe potencial seria como uma “bomba destruidora do universo”:

"Não se trata apenas de extinção em nível humano; a extinção de humanos já é ruim o suficiente", disse ele. "É como a destruição potencial de todo o valor. Não apenas para nós, mas para qualquer espécie alienígena apanhada no rastro da explosão."

Shear disse que não estava tão preocupado quanto alguns teóricos da IA sobre esse tipo de evento que acabaria com o mundo – em parte porque ele não achava que a atual tecnologia de IA estivesse perto de tal avanço, e em parte porque ele achava que seria possível garantir que os objetivos dos sistemas de IA estavam alinhados com os dos humanos. Mas ele ainda abraçou as salvaguardas da indústria:

"Sou a favor da criação de algum tipo de alarme de incêndio, como talvez, 'Não IAs maiores que x'. Acho que há boas opções para colaboração internacional e acordos sobre algum tipo de tratado de proibição de testes de IA."

Em postagens no X, Shear reforçou esses pontos, referindo-se a si mesmo como um “destruidor” e sugerindo que as empresas deveriam pisar no freio em seus avanços tecnológicos.

"Sou a favor de uma desaceleração" respondeu ele a outro usuário em setembro. "Não podemos aprender como construir uma IA segura sem experimentar, e não podemos experimentar sem progresso, mas provavelmente também não deveríamos avançar na velocidade máxima".