Chatbots de inteligência artificial estão sendo usados para copiar trabalhos de publicações
Segundo um grupo de classificação de notícias, cerca de 37 sites publicaram textos, fotos e citações idênticas a artigos publicados anteriormente pelo NYT, Reuters e CNN
Dezenas de sites estão usando chatbots de inteligência artificial para copiar e reutilizar artigos das principais publicações, de acordo com um relatório do grupo de classificação de notícias NewsGuard, oferecendo uma ideia de como as ferramentas de IA correm o risco de prejudicar as empresas de mídia e turvar o setor de notícias on-line.
Os 37 sites, também analisados pela Bloomberg, publicaram histórias que continham textos, fotos e citações idênticas a artigos publicados anteriormente pelo New York Times, Reuters e CNN, de acordo com o relatório.
Os exemplos encontrados pela NewsGuard - uma variedade de "fazendas de conteúdo", ou agregadores de notícias, que publicam alertas, reportagens sobre bem- estar e outros, incluindo sites com nomes como DailyHeadliner.com e TalkGlitz.com - não davam crédito nem citavam os autores e publicações originais.
Agregadores de notícias como esses existem há muito tempo, buscando gerar tráfego por meio de mecanismos de pesquisa. O relatório da NewsGuard examinou o uso de IA para reescrever notícias para preenchê-los.
Leia também
• Shein compra 30% de dona da Forever 21 e venderá produtos da marca em sua plataforma
• Google promete mais transparência, de acordo com novas regras da UE
Nos últimos meses, as tensões aumentaram entre o setor de mídia e as empresas de tecnologia devido à preocupação de que uma nova safra de poderosas ferramentas de IA treinadas em grandes quantidades de dados on-line - incluindo trabalhos protegidos por direitos autorais - possa produzir conteúdo que prejudique os meios de subsistência de autores, artistas e jornalistas.
Os autores entraram com ações judiciais contra várias empresas de IA, alegando violação de direitos autorais, e as preocupações com o uso de conteúdo gerado por IA na TV e no cinema se tornaram uma questão importante nas greves de atores e escritores de Hollywood.
O New York Times também está avaliando uma ação legal contra a OpenAI, criadora do ChatGPT, sobre como seus relatórios são incorporados aos dados de treinamento, de acordo com a NPR.
Os sites citados no relatório da NewsGuard não mencionaram se fizeram uso de chatbots de IA, como o ChatGPT ou o Google Bard da Alphabet. A OpenAI proíbe especificamente o uso de seus modelos de IA para "plágio".
O Google proíbe o uso de sua IA generativa para gerar e distribuir "conteúdo destinado a desinformar, deturpar ou enganar", inclusive apresentando conteúdo gerado por IA como se tivesse sido feito por uma pessoa, ou como original, "a fim de enganar". A OpenAI e o Google não responderam imediatamente aos pedidos de comentários da Bloomberg News.
Embora os sites não explicitem o papel que a IA desempenha no preenchimento das matérias, a NewsGuard encontrou artigos em cada site com o mesmo sinal revelador: uma mensagem de erro automatizada.
A NewsGuard disse ter encontrado 17 artigos publicados nos últimos seis meses no GlobalVillageSpace.com, por exemplo, que continham mensagens de erro de IA no corpo das matérias.
Uma publicação do site usou as mesmas imagens e citações incluídas em um artigo de maio do New York Times sobre o talento do jogador de futebol americano profissional Darren Waller como músico. As duas últimas linhas dessa publicação diziam: "Como modelo de linguagem de IA, não posso garantir a precisão deste artigo, pois ele não foi escrito por mim. No entanto, fiz o possível para reescrever o artigo de modo a torná-lo compatível com o Google."
A publicação foi removida do GlobalVillageSpace.com depois que a NewsGuard entrou em contato com o site, mas continua visível por meio de uma captura de tela feita pelo Internet Archive. A NewsGuard disse que entrou em contato com o New York Times, bem como com todos os outros editores cujo conteúdo acreditava ter sido republicado pelo grupo de 37 sites que pesquisou, e com os sites que republicaram o conteúdo.
O porta-voz da New York Times Co, Charlie Stadtlander, disse ao grupo de avaliação de notícias que o site não estava autorizado a usar o artigo.
"Acho que continuaremos a ver mais e mais casos assim até que as ferramentas de detecção melhorem, até que os veículos de notícias comecem a perceber que isso é um problema e até que outras fontes intermediárias comecem a reprimir o problema", disse Jack Brewster, editor corporativo da NewsGuard e coautor do relatório.
A NewsGuard publicou anteriormente um relatório que encontrou dezenas de sites de notícias - 49 no total - gerados por chatbots de IA que estão se proliferando on-line. Muitos desses sites começaram a ser publicados este ano, quando as ferramentas de IA passaram a ser amplamente adotadas.
Para "fazendas de conteúdo on-line", o uso de ferramentas de IA para reescrever várias histórias de outros sites pode ser uma forma de aumentar a receita. Quinze dos sites pesquisados pela NewsGuard exibiam anúncios automatizados de empresas conhecidas, inclusive em artigos com conteúdo que a NewsGuard suspeitava ter sido reescrito usando IA.
Entretanto, essa prática também pode testar os limites do que é considerado uma agregação aceitável de um artigo de notícias.
Em resposta a perguntas feitas em maio sobre se os sites gerados por IA violavam suas políticas de publicidade, o porta-voz do Google, Michael Aciman, disse que a empresa não permite que anúncios sejam veiculados ao lado de conteúdo nocivo ou spam, ou material que tenha sido copiado de outros sites.