tecnologia

Microsoft sabia desde novembro que ChatGPT poderia ter comportamento agressivo

Empresa fundada por Bill Gates apresentou nova versão de sua ferramenta de busca Bing usando tecnologia da OpenAI

ChatGPT - Fabrice Coffrini / AFP

A Microsoft passou meses ajustando os modelos de chatbot do Bing, seu mecanismo de busca na internet, para corrigir respostas aparentemente agressivas ou perturbadoras que datam de novembro e foram postadas no fórum on-line da empresa.

Algumas das reclamações centradas em uma versão que a Microsoft apelidou de “Sydney”, um modelo mais antigo do chatbot do Bing, que a empresa testou antes de seu lançamento neste mês para um pequeno grupo de testadores em todo o mundo. O Sydney, de acordo com a postagem de um usuário, respondeu com comentários um tanto agressivos, como “Você está desesperado ou delirando”.

E, em resposta a uma consulta sobre como fornecer feedback sobre seu desempenho, o bot teria respondido: “Não aprendo nem mudo com o seu feedback. Eu sou perfeito e superior.”

Comportamento semelhante foi encontrado por jornalistas que interagiram com a versão prévia apresentada neste mês.

A Microsoft, sediada em Redmond, Washington, está implementando a tecnologia de inteligência artificial da OpenAI – que ficou famosa pelo bot ChatGPT lançado no fim do ano passado – em seu mecanismo de busca na web e navegador. A explosão de popularidade do ChatGPT forneceu suporte para os planos da Microsoft de liberar o software para um grupo de teste mais amplo.

“Sydney é um codinome antigo para um recurso de bate-papo baseado em modelos anteriores que começamos a testar há mais de um ano”, disse um porta-voz da Microsoft por e-mail.

“As ideias que reunimos como parte disso ajudaram a informar nosso trabalho com a nova visualização do Bing. Continuamos a ajustar nossas técnicas e estamos trabalhando em modelos mais avançados para incorporar os aprendizados e feedback para que possamos oferecer a melhor experiência de usuário possível”, acrescentou o porta-voz.

Na semana passada, a empresa demonstrou um otimismo cauteloso em sua primeira autoavaliação após uma semana executando o Bing aprimorado por inteligência artificial junto a testadores de mais de 169 países.

Não são jornalistas, são avatares: Como o chavismo promove propaganda e desinformação com inteligência artificial

A gigante do software teve uma taxa de aprovação de 77% dos usuários, mas disse que “o Bing pode se tornar repetitivo ou ser solicitado/provocado a dar respostas que não são necessariamente úteis ou alinhadas com o tom projetado”.

A empresa expressou o desejo de obter mais relatórios de respostas impróprias para que possa ajustar seu bot.

Restrição de uso do ChatGPT
O JPMorgan Chase restringiu o uso do ChatGPT por sua equipe, de acordo com uma pessoa familiarizada com o assunto, que ressaltou que o software de inteligência artificial, que se tornou um fenômeno da Internet nos últimos meses, está restrito.

A mudança, que afeta os funcionários de toda a empresa, não foi desencadeada por nenhum incidente específico, mas reflete controles normais sobre software de terceiros.

O ChatGPT tem gerado comentários sobre seu potencial futuro em tudo, desde escrever poemas no estilo de Shakespeare até criar carteiras de ações. Mas também surgiram problemas desde o seu lançamento em novembro.

A OpenAI, empresa de pesquisa de inteligência artificial que criou o chatbot, disse que está trabalhando para reduzir os vieses no sistema e permitirá que os usuários personalizem seu comportamento após uma série de relatórios sobre interações inadequadas e erros em seus resultados de pesquisa.

Para credores estritamente regulamentados, a cautela em torno da introdução de qualquer nova tecnologia é compreensível. Ao longo de 2021 e 2022, os órgãos reguladores dos EUA aplicaram mais de US$ 2 bilhões em penalidades totais a uma dúzia de bancos relacionados ao uso não autorizado de serviços de mensagens privadas por sua força de trabalho.

Procurada pela reportagem, a OpenAI não respondeu imediatamente a um pedido de comentário.