Microsoft sabia desde novembro que ChatGPT poderia ter comportamento agressivo
Empresa fundada por Bill Gates apresentou nova versão de sua ferramenta de busca Bing usando tecnologia da OpenAI
A Microsoft passou meses ajustando os modelos de chatbot do Bing, seu mecanismo de busca na internet, para corrigir respostas aparentemente agressivas ou perturbadoras que datam de novembro e foram postadas no fórum on-line da empresa.
Leia também
• Petróleo cai em meio a incertezas sobre a economia mundial
• Semana de quatro dias de trabalho passa no teste no Reino Unido
• Haddad manda doar itens apreendidos ao litoral paulista
Algumas das reclamações centradas em uma versão que a Microsoft apelidou de “Sydney”, um modelo mais antigo do chatbot do Bing, que a empresa testou antes de seu lançamento neste mês para um pequeno grupo de testadores em todo o mundo. O Sydney, de acordo com a postagem de um usuário, respondeu com comentários um tanto agressivos, como “Você está desesperado ou delirando”.
E, em resposta a uma consulta sobre como fornecer feedback sobre seu desempenho, o bot teria respondido: “Não aprendo nem mudo com o seu feedback. Eu sou perfeito e superior.”
Comportamento semelhante foi encontrado por jornalistas que interagiram com a versão prévia apresentada neste mês.
A Microsoft, sediada em Redmond, Washington, está implementando a tecnologia de inteligência artificial da OpenAI – que ficou famosa pelo bot ChatGPT lançado no fim do ano passado – em seu mecanismo de busca na web e navegador. A explosão de popularidade do ChatGPT forneceu suporte para os planos da Microsoft de liberar o software para um grupo de teste mais amplo.
“Sydney é um codinome antigo para um recurso de bate-papo baseado em modelos anteriores que começamos a testar há mais de um ano”, disse um porta-voz da Microsoft por e-mail.
“As ideias que reunimos como parte disso ajudaram a informar nosso trabalho com a nova visualização do Bing. Continuamos a ajustar nossas técnicas e estamos trabalhando em modelos mais avançados para incorporar os aprendizados e feedback para que possamos oferecer a melhor experiência de usuário possível”, acrescentou o porta-voz.
Na semana passada, a empresa demonstrou um otimismo cauteloso em sua primeira autoavaliação após uma semana executando o Bing aprimorado por inteligência artificial junto a testadores de mais de 169 países.
Não são jornalistas, são avatares: Como o chavismo promove propaganda e desinformação com inteligência artificial
A gigante do software teve uma taxa de aprovação de 77% dos usuários, mas disse que “o Bing pode se tornar repetitivo ou ser solicitado/provocado a dar respostas que não são necessariamente úteis ou alinhadas com o tom projetado”.
A empresa expressou o desejo de obter mais relatórios de respostas impróprias para que possa ajustar seu bot.
Restrição de uso do ChatGPT
O JPMorgan Chase restringiu o uso do ChatGPT por sua equipe, de acordo com uma pessoa familiarizada com o assunto, que ressaltou que o software de inteligência artificial, que se tornou um fenômeno da Internet nos últimos meses, está restrito.
A mudança, que afeta os funcionários de toda a empresa, não foi desencadeada por nenhum incidente específico, mas reflete controles normais sobre software de terceiros.
O ChatGPT tem gerado comentários sobre seu potencial futuro em tudo, desde escrever poemas no estilo de Shakespeare até criar carteiras de ações. Mas também surgiram problemas desde o seu lançamento em novembro.
A OpenAI, empresa de pesquisa de inteligência artificial que criou o chatbot, disse que está trabalhando para reduzir os vieses no sistema e permitirá que os usuários personalizem seu comportamento após uma série de relatórios sobre interações inadequadas e erros em seus resultados de pesquisa.
Para credores estritamente regulamentados, a cautela em torno da introdução de qualquer nova tecnologia é compreensível. Ao longo de 2021 e 2022, os órgãos reguladores dos EUA aplicaram mais de US$ 2 bilhões em penalidades totais a uma dúzia de bancos relacionados ao uso não autorizado de serviços de mensagens privadas por sua força de trabalho.
Procurada pela reportagem, a OpenAI não respondeu imediatamente a um pedido de comentário.