INTELIGÊNCIA ARTIFICIAL

Advogado pede desculpas nos EUA após ChatGPT criar casos falsos

Ele havia apresentado petição na Justiça citando jurisprudências de seis casos, porém decisões não eram verdadeiras

Chat GPT - Reprodução/ChatGPT

Um advogado americano teve que se desculpar por ter utilizado a ferramenta de inteligência artificial ChatGPT para preparar um processo judicial.

O profissional, Steven Schwartz, que atua em Nova York, se desculpou perante um juiz esta semana por apresentar um relatório repleto de mentiras geradas pelo chat conversacional da OpenAI.

"Eu simplesmente não tinha ideia de que o ChatGPT era capaz de fabricar citações de casos completos ou opiniões judiciais, inclusive de maneira que parecesse autêntica", escreveu Schwartz.

 

O erro ocorreu em uma ação civil que estava sendo julgada em um tribunal federal em Manhattan, no qual a companhia aérea colombiana Avianca foi processada por uma pessoa que alegava ter sofrido lesões durante um voo entre El Salvador e Nova York em agosto de 2019.

Após os advogados da empresa solicitarem ao tribunal que rejeitasse o caso, Schwartz apresentou uma resposta citando mais de meia dúzia de decisões anteriores para respaldar seu argumento de que a disputa deveria prosseguir.

No entanto, essas decisões nunca existiram, pois os casos mencionados também não eram reais, como puderam constatar o juiz Kevin Castel e os advogados da Avianca.

Schwartz foi obrigado a admitir que o ChatGPT havia inventado tudo.

"O tribunal enfrenta uma circunstância sem precedentes", escreveu o juiz Castel no mês passado. "Seis dos casos apresentados parecem ser decisões judiciais falsas com citações falsas e referências internas falsas", acrescentou.

O juiz ordenou que Schwartz e seu colega de trabalho comparecessem perante ele para enfrentar possíveis sanções.

Foi "um erro profundamente lamentável", desculpou-se Schwartz perante o tribunal antes de uma audiência que ocorreu na terça-feira.

O ChatGPT se tornou uma sensação global desde seu lançamento no final do ano passado, devido à sua capacidade de produzir textos com linguagem similar à humana a partir de instruções simples.

Um porta-voz da OpenAI não respondeu de imediato a um pedido de comentário sobre o erro de Schwartz.

A história foi relatada pela primeira vez pelo jornal americano The New York Times.