

'Oi chatbot, isso é verdade?': verificação de fatos com IA gera desinformação
Quando a desinformação disparou durante os quatro dias de conflito entre Índia e Paquistão, usuários de redes sociais recorreram a um chatbot de inteligência artificial (IA) para verificar os fatos, mas encontraram mais inverdades, destacando sua pouca confiabilidade como ferramenta de checagem de informações.
Com a redução de verificadores profissionais humanos nas plataformas, os usuários recorrem cada vez mais a chatbots baseados em IA - como Grok, da xAI, ChatGPT, da OpenAI, e Gemini, do Google - em busca de informações confiáveis.
"Olá @Grok, isso é verdade?" tornou-se uma pergunta comum na rede social X de Elon Musk, que tem o assistente de IA integrado, refletindo a crescente tendência de buscar refutações instantâneas nas redes sociais. Mas as respostas costumam estar repletas de desinformação.
O Grok, agora sob novo escrutínio por inserir "genocídio branco", uma teoria conspiratória da extrema direita, em consultas não relacionadas, identificou incorretamente um antigo vídeo do aeroporto de Cartum, no Sudão, como um ataque com mísseis contra a base aérea Nur Khan do Paquistão durante o recente conflito desse país com a Índia.
Gravações de um edifício em chamas no Nepal foram equivocadamente apontadas como "provavelmente" a resposta militar do Paquistão aos ataques indianos.
"A crescente confiança no Grok como verificador de fatos ocorre enquanto X e outras grandes empresas de tecnologia reduzem seus investimentos em verificadores humanos", declarou à AFP McKenzie Sadeghi, pesquisadora da organização de vigilância da desinformação NewsGuard.
"Nossas pesquisas demonstraram repetidamente que os chatbots de IA não são fontes confiáveis de notícias e informações, especialmente quando se trata de notícias recentes", advertiu.
- Repetir mentiras -
Uma investigação do NewsGuard revelou que 10 dos principais chatbots eram propensos a repetir informações falsas, incluindo narrativas de desinformação russa.
Em um estudo recente de oito ferramentas de busca com IA, o Centro Tow para Jornalismo Digital da Universidade de Columbia descobriu que os chatbots eram "geralmente ruins para declinar perguntas que não podiam responder com precisão, oferecendo em vez disso respostas incorretas ou especulativas".
Quando verificadores digitais da AFP no Uruguai perguntaram ao Gemini sobre uma imagem de uma mulher gerada por IA, o serviço não apenas confirmou sua autenticidade, como também inventou detalhes sobre sua identidade e o lugar onde provavelmente a foto teria sido tirada.
Recentemente, o Grok classificou como "autêntico" um suposto vídeo de uma anaconda gigante nadando no rio Amazonas, citando até expedições científicas aparentemente plausíveis para apoiar sua falsa afirmação.
Na realidade, o vídeo foi gerado por IA, reportaram os verificadores da AFP na América Latina, que indicaram que muitos usuários citaram a avaliação do Grok como prova de que o clipe era real.
Essas descobertas suscitaram preocupações, já que pesquisas mostram que os usuários estão trocando cada vez mais os mecanismos de busca tradicionais por ferramentas de IA generativa para coletar e verificar informações.
Essa mudança também coincide com a decisão da Meta, no início do ano, de encerrar seu programa de verificação digital externo nos Estados Unidos e transferir a tarefa de desmentir alegações falsas para os usuários, por meio das chamadas "notas da comunidade", um recurso popularizado pelo X.
- "Respostas tendenciosas" -
A verificação digital realizada por pessoas tem sido há muito tempo um ponto sensível em um clima político hiperpolarizado, em particular nos Estados Unidos, onde grupos conservadores argumentam que a prática suprime a liberdade de expressão e censura conteúdos de direita, algo que esses profissionais rechaçam firmemente.
A AFP trabalha atualmente em 26 idiomas com o programa de verificação de fatos do Facebook, presente na Ásia, América Latina e União Europeia.
A qualidade e a precisão dos chatbots de IA podem variar, dependendo de como são treinados e programados, o que gera preocupações de que seus resultados possam estar sujeitos a influência ou controle político.
A xAI, de Musk, atribuiu a uma "modificação não autorizada" a geração de publicações não solicitadas pelo Grok que faziam referência ao "genocídio branco" na África do Sul.
Quando o especialista em IA David Caswell perguntou ao próprio Grok quem poderia ter modificado seu sistema, a ferramenta apontou Musk como o culpado "mais provável".
O bilionário sul-africano, aliado do presidente Donald Trump, já havia afirmado anteriormente que os líderes da África do Sul estavam "incitando abertamente ao genocídio" da população branca.
"Vimos como os assistentes de inteligência artificial podem falsificar resultados ou dar respostas tendenciosas depois que programadores humanos alteram especificamente suas instruções", declarou à AFP Angie Holan, diretora da Rede Internacional de Verificação de Fatos.
"Preocupa-me especialmente a maneira como Grok geriu incorretamente solicitações sobre assuntos muito sensíveis após receber instruções para fornecer respostas pré-autorizadas", disse Holan.
burs-ac/nl/db/val/ic/am
T.McGilberry--NG