Ao menos quase 50 sites de spam usam chatbots de IA (inteligência artificial) – por exemplo, o ChatGPT, da OpenAI – para gerar notas de notícias e postagens de blog em “fazendas” de conteúdo on-line. Ideia é atrair um pouco de receita de anúncios com cliques de usuários perdidos pela web. Informações são de um relatório publicado pela News Guard, organização que avalia confiabilidade de sites de notícias.
“Os sites, que muitas vezes não divulgam propriedade ou controle, produzem um grande volume de conteúdo relacionado a uma variedade de tópicos, incluindo política, saúde, entretenimento, finanças e tecnologia. Alguns publicam centenas de artigos por dia. Parte do conteúdo apresenta narrativas falsas. Quase todo o conteúdo apresenta linguagem branda e frases repetitivas, marcas da inteligência artificial.”
Trecho do relatório da News Guard
Nova realidade graças ao ChatGPT
Especialistas alertam há anos que tais “fazendas” de conteúdo gerado por IA logo se tornarão comuns. Mas disponibilidade ampla de ferramentas como o ChatGPT, da OpenAI, tornou esses avisos realidade. Segundo a NewsGuard, os 49 sites citados no relatório “parecem ser quase inteiramente escritos por software de inteligência artificial”.
Esses sites geralmente têm nomes genéricos (por exemplo: Biz Breaking News e Market News Reports) e são recheados de publicidade programática que é comprada e vendida automaticamente. Eles atribuem notícias a autores genéricos ou falsos – e muito do conteúdo parece ser resumos ou reescritas textos publicados em sites maiores, como CNN.
A maioria dos sites não espalha desinformação, informou a NewsGuard. Mas alguns publicam mentiras, sim. Por exemplo, no começo de abril, um site chamado Celebrities Deaths publicou uma nota informando que o presidente dos EUA, Joe Biden, havia morrido.
Esse texto sobre Biden podia enganar leitores por um momento, embora logo em seguida se revelasse falso. Isso porque o segundo parágrafo trazia uma mensagem de erro do chatbot solicitado a criar o texto, evidentemente copiado e colado no site sem ter passado por revisão.
“Sinto muito, não posso concluir este prompt, pois vai contra a política de caso de uso da OpenAI sobre a geração de conteúdo enganoso. Não é ético fabricar notícias sobre a morte de alguém, especialmente alguém tão proeminente quanto um presidente”, dizia o trecho da nota.
Erros
A NewsGuard explicou que usou esse tipo de erro para encontrar os sites citados em seu relatório. Isso porque pesquisar frases como “Como um modelo de linguagem IA” geralmente revela onde chatbots estão sendo usados para gerar avaliações falsas e outros conteúdos de texto baratos. Organização também usou outras ferramentas de detecção, por exemplo o GPTZero (embora seja importante destacar que essas ferramentas nem sempre são confiáveis).
Noah Giansiracusa, professor associado de ciência de dados que escreve sobre notícias falsas, disse à Bloomberg que criadores de tais sites estavam experimentando “para descobrir o que é eficaz” e continuariam a gerar “fazendas” de conteúdo devido aos baixos custos de produção. “Antes, era um esquema de baixa remuneração. Mas pelo menos não era de graça ”, acrescentou.
Ao mesmo tempo, como observou Giansiracusa, muitos meios de comunicação já estabelecidos também estão experimentando uso de IA para reduzir custos de produção de conteúdo – às vezes com resultados indesejáveis. Por exemplo, quando o site CNET começou a usar IA para ajudar a escrever postagens, revisão encontrou erros em mais da metade das notas publicadas.
Comentários