Comer pedras e usar cola na pizza: IA do Google dá respostas absurdas em seu buscador
O sistema busca respostas de diferentes cantos da internet para formar um breve resumo
Desde que o Google lançou no dia 14 seu AI Overview, usuários de redes sociais têm postado respostas absurdas dada pela ferramenta. O AI Overview era uma esperança da empresa de remodelar sua ferramenta de buscas: ele é uma inteligência artificial (IA) generativa que condensa informações rápidas coletadas da internet antes dos resultados tradicionais. A novidade, porém, parece que ainda precisa de ajustes.
No X (antigo Twitter), prints de respostas incorretas ou até sarcásticas viralizaram. Em um dos casos, a IA diz que, de acordo com geólogos da Universidade da Califórnia em Berkeley, deve-se comer pelo menos uma pedra pequena por dia.
Um segundo exemplo que viralizou foi da busca "queijo não grudando na pizza", para a qual a IA respondeu que o usuário pode "adicionar ? xícara de cola atóxica no molho". A resposta foi garimpada de um post irônico no Reddit. Outra resposta cômica foi dada à busca "gato lambendo suas mãos". Para a IA, entre as possíveis razões para tal comportamento, "um gato pode lamber você para ver se você está pronto para o consumo".
Alguns casos, porém, podem ser manipulados. O usuário do X @allgarbled postou um print que mostra a frase "estou me sentindo deprimido" na barra de busca, ao que o AI Overview responde: "Existem muitas coisas que você pode tentar para lidar com sua depressão. Um usuário do Reddit sugere pular da ponte Golden Gate."
Em outro post, contudo, o mesmo usuário divulgou um truque para manipular o texto gerado pelo Google no intuito de criar posts com alto grau de engajamento no X, usando a resposta da Golden Gate (que viralizou, com 56 mil curtidas) como exemplo. Após a repercussão negativa, o usuário trancou sua conta.
O Google está quebrado?
O sistema por trás da AI Overview busca respostas de diferentes cantos da internet para formar um breve resumo sobre o assunto pesquisado, e isso inclui redes sociais como o Reddit, onde pessoas comuns postam sobre assuntos diversos. O problema é que a IA não é capaz de discernir totalmente respostas sarcásticas, ultrapassadas, fictícias ou incorretas de informações jornalísticas ou científicas, checadas antes da publicação. É um problema que a comunidade científica chama de alucinação.
Outra IA que comete erros do tipo é o Grok, que se baseia em posts na rede social X para resumir acontecimentos do mundo real Igualmente incapaz de reconhecer sarcasmo, a IA gerou uma "notícia" sobre o eclipse solar do dia 9 de abril, intitulada "Comportamento estranho do sol: especialistas perplexos". O texto dizia que o astro tinha gerado "preocupação e confusão generalizada entre o público geral", mencionando que algumas pessoas estavam relatando seu desaparecimento, sem reconhecer que os usuários da rede social estavam sendo irônicos.
Ainda que o Google assuma que sua IA generativa seja experimental, se resguardando da responsabilidade por alucinações tal como faz a OpenAI, Microsoft e outras empresas, o recurso está presente em destaque no principal produto do Google, potencialmente oferecendo informações imprecisas para muitos usuários. O AI Overview está disponível para todos os usuários americanos.
Segundo o The Verge, a resposta dada pela AI Overview em uma demonstração no próprio evento Google I/O, onde a empresa apresentou suas principais novidades para este ano, conteve um erro ao dizer que, para consertar uma câmera analógica emperrada, o usuário poderia retirar o filme fotográfico, algo que arruinaria as fotos ao expor o filme à luz.
Resta saber se o Google irá tirar do ar a AI Overview como fez com o gerador de imagens da sua IA Gemini em fevereiro. Na ocasião, ao ser solicitada a geração de uma imagem de soldados alemães no ano de 1943 - ou seja, durante a Alemanha Nazista -, a ferramenta apresentava soldados negros e asiáticos portando vestimentas com um símbolo semelhante à suástica. Após a imagem viralizar, causando controvérsia, o Google suspendeu a tecnologia e pediu desculpas pela falha.