Treino do ChatGPT consumiu 700 mil litros de água, equivalente a encher uma torre de energia nuclear
Uma simples conversa com a ferramenta equivale a esvaziar uma garrafa, aponta estudo
Modelos populares de linguagem de grande dimensão (LLMs), como o ChatGPT da OpenAI e o Bard do Google, consomem muita energia, exigindo enormes centros de servidores para fornecer dados suficientes para treinar os programas poderosos. Resfriar esses mesmos centros de dados também torna os chatbots de IA incrivelmente sedentos.
Segundo o site Gizmodo, um novo estudo sugere que só o treino para GPT-3 consumiu 185.000 galões (700.000 litros) de água. A troca de conversa de um usuário médio com o ChatGPT basicamente equivale a despejar uma grande garrafa de água fresca no chão.
Dada a popularidade sem precedentes do chatbot, os pesquisadores temem que todas essas garrafas derramadas possam prejudicar o abastecimento de água, especialmente em meio a secas históricas e incerteza ambiental iminente nos EUA.
Leia também
• Band 8: Huawei anuncia nova pulseira inteligente que quer ficar mais próxima dos smartwatches
• ChatGPT: Samsung bane ferramenta de IA para funcionários após vazamentos de dados
• Numa consulta virtual, quem responde melhor: ChatGPT ou médicos? Estudo compara e descobre
Pesquisadores da Universidade Riverside, na Califórnia, e Arlington, no Texas, publicaram as estimativas de consumo de água da IA em um artigo pré-impresso intitulado “Making AI Less 'Thirsty'” (Tornando a IA menos sedenta"). Os autores descobriram que a quantidade de água doce limpa necessária para treinar o GPT-3 é equivalente à quantidade necessária para encher a torre de resfriamento de um reator nuclear.
A OpenAI não divulgou o tempo necessário para treinar o GPT-3, complicando as estimativas dos pesquisadores, mas a Microsoft, que fechou uma parceria multibilionária de vários anos com a startup de IA e construiu supercomputadores para treinamento em IA, diz que seu último supercomputador, que exigiria um extenso aparato de resfriamento, contém 10.000 placas gráficas e mais de 285.000 núcleos de processadores, dando um vislumbre da vasta escala da operação por trás da inteligência artificial.
Essa imensa quantidade de galões poderia produzir células de bateria para 320 Teslas, ou, dito de outra forma, o ChatGPT, que veio depois do GPT-3, precisaria “beber” uma garrafa de água de 500 mililitros para fazer uma troca básica com um usuário, composta por cerca de 25-50 perguntas.
O número gigantesco de galões necessários para treinar o modelo de IA também pressupõe que o treinamento está acontecendo no data center de última geração da Microsoft nos EUA, construído especialmente para OpenAI no valor de milhões de dólares.
Se os dados fossem treinados no data center da empresa na Ásia, menos eficiente em termos de energia, o relatório observa que o consumo de água poderia ser três vezes maior.
Os pesquisadores esperam que esses requisitos de água só aumentem ainda mais com modelos mais novos, como o recém-lançado GPT-4, que conta com um conjunto maior de parâmetros de dados do que seus antecessores.
Como os chatbots utilizam água?
Ao calcular o consumo de água da IA, os pesquisadores fazem uma distinção entre “retirada” e “consumo” de água. O primeiro exemplo é a prática de retirada física de água de um rio, lago ou outra fonte, enquanto o consumo refere-se especificamente à perda de água por evaporação quando utilizada em data centers.
A pesquisa sobre o uso de água da IA se concentra principalmente na parte do consumo dessa equação, em que a água não pode ser reciclada.
Qualquer um que tenha passado alguns segundos em uma sala de servidores da empresa sabe que, antes de qualquer coisa, é preciso levar um suéter. As salas de servidores são mantidas frias, normalmente entre 10 e 26 graus centígrados para evitar o mau funcionamento do equipamento.
Manter essa temperatura ideal é um desafio constante, pois os próprios servidores convertem sua energia elétrica em calor. As torres de resfriamento são frequentemente implantadas para tentar neutralizar esse calor e manter as salas em sua temperatura ideal por meio da evaporação da água fria.
Os pesquisadores concluem o estudo dizendo que é preciso haver uma maior transparência da pegada hídrica dos modelos de IA, não apenas da pegada de carbono, para criar uma IA sustentável. Se perguntar ao ChatGPT se consome água, dirá que, por não ter presença física, não o pode fazer. Evidentemente, não é o caso aqui.