Fim da cola? Dona do ChatGPT cria meio para detectar texto escrito por inteligência artificial
Recurso indica a probabilidade de um conteúdo ter sido elaborado por máquina
A OpenAI, que lançou o ChatGPT - o chatbot que atraiu um milhão de usuários em poucos dias -, apresentou uma ferramenta que pode ser a solução para um problema criado pela própria empresa.
Após alunos passarem a usar o robô para fazer trabalhos escolares, o laboratório de pesquisa agora vai mostrar se um texto foi provavelmente criado por um programa de inteligência artificial ou por um humano. Entenda como funciona:
Chamado de "Classificador", o recurso lançado pelo OpenAI que já está disponível no site da empresa, indica a probabilidade de um conteúdo de no mínimo mil caracteres (ou 150 a 250 palavras) ter sido escrito por um robô ou por um humano.
O usuário digita um texto de pelo menos mil caracteres;
Em seguida, clica em 'enviar o conteúdo';
A ferramenta apresenta uma linha de resultado;
Cada documento é rotulado como: "muito improvável", "improvável", "incerto/não está claro", "possivelmente" ou "provavelmente gerado por IA".
Limitações
A ferramenta é capaz de reconhecer textos escritos pelos produtos da OpenAI, assim como outros softwares de inteligência artificial. No entanto, a empresa disse que atualmente tem uma série de limitações. Segundo a OpenAI, o recurso deve ser usado como um complemento de outros métodos para determinar a fonte do texto em vez de ser a ferramenta principal para a tomada de decisões.
"Os resultados podem ajudar, mas não devem ser a única evidência ao decidir se um documento foi gerado com IA", escreveu a empresa.
Impacto no ensino
A popularidade do ChatGPT, desde que foi lançado em novembro, levantou preocupações sobre a autoria de conteúdos escritos em ambientes educacionais. Professores, em particular, têm lutado para lidar com a ferramenta. Os alunos perceberam rapidamente que a plataforma poderia criar relatórios, gerar trabalhos de conclusão de curso e distribuí-los como seus. Também levantou preocupações sobre a facilidade de campanhas de desinformação geradas automaticamente.
No início deste mês, o estudante da Universidade de Princeton, Edward Tian, lançou um aplicativo chamado 'GPTZero' que ele disse ter programado para detectar digitação por IA. Ethan Mollick, professor da Wharton School da Universidade da Pensilvânia, desenvolveu uma política de IA para suas aulas, que permite que os alunos usem o ChatGPT, desde que descrevam para que usaram o programa e como o utilizaram.