A popularização de modelos de linguagem como ChatGPT gerou expectativas sobre seu papel no fact-checking e na luta contra a desinformação. No entanto, uma pesquisa recente publicada na Proceedings of the National Academy of Sciences revelou que esses sistemas podem, surpreendentemente, minar a confiança em manchetes verdadeiras e reforçar crenças em falsas. Será que a inteligência artificial está agravando, em vez de resolver, o problema das fake news?
Fact-Checking: O Papel da Inteligência Artificial no Combate à Desinformação
Com o crescimento acelerado da desinformação, ferramentas como ChatGPT surgiram como uma solução promissora. Esses modelos são treinados em vastas quantidades de dados e têm capacidade para identificar informações falsas rapidamente, fornecendo correções precisas. O problema é que a interpretação humana desses fact-checks nem sempre ocorre da maneira esperada.
Segundo o estudo, enquanto ChatGPT foi eficaz em identificar 90% das manchetes falsas, mas ele falhou em rotular adequadamente manchetes verdadeiras, classificando apenas 15% como verdadeiras. Além disso, ao demonstrar incerteza, o modelo frequentemente confundiu os usuários, levando-os a acreditar em informações falsas ou duvidar de manchetes confiáveis.
Esse paradoxo questiona a eficácia do uso de IA para combater a desinformação. Embora sua velocidade e escala sejam indiscutíveis, a incapacidade de distinguir nuances e construir confiança ameaça a integridade de seu propósito original.
O Efeito Contraditório da IA Sobre o Julgamento Humano
Uma das descobertas mais alarmantes do estudo foi o impacto negativo da IA no discernimento humano. Participantes expostos a fact-checks gerados por ChatGPT foram:
- 12,75% menos propensos a acreditar em manchetes verdadeiras rotuladas como falsas.
- 9,12% mais inclinados a acreditar em manchetes falsas quando o modelo expressava incerteza.
Isso demonstra que, ao invés de ajudar, a IA pode comprometer ainda mais a confiança nas notícias. Esse fenômeno é especialmente perigoso em um cenário onde a polarização política já influencia a forma como informações são consumidas e compartilhadas.
Curiosamente, os participantes que tinham a opção de consultar ou ignorar os fact-checks da IA geralmente reforçavam suas opiniões prévias, ignorando correções ou interpretando as informações de maneira enviesada. Isso levanta preocupações sobre a eficácia desses sistemas em ambientes reais, como redes sociais.
Por Que Fact-Checking Humanos Ainda São Superiores
Enquanto ChatGPT apresentou limitações significativas, o estudo demonstrou que os fact-checks realizados por humanos tiveram um impacto mais positivo. Comparados ao grupo de controle, os participantes expostos a avaliações humanas foram:
- 18,06% mais propensos a acreditar em manchetes verdadeiras.
- 8,98% mais inclinados a compartilhar essas manchetes.
Isso reflete a capacidade humana de contextualizar informações e fornecer explicações detalhadas que vão além de rótulos simples como “verdadeiro” ou “falso”. A abordagem humana se mostra mais eficaz para lidar com as nuances das notícias, algo que a IA ainda não consegue reproduzir com precisão.
Por outro lado, a escala limitada de fact-checking humano dificulta sua aplicação em um ambiente digital onde a desinformação se espalha rapidamente. Isso reforça a necessidade de uma abordagem híbrida, onde a IA complementa, mas não substitui, o julgamento humano.
Riscos e Possibilidades Futuras para Fact-Checking
A pesquisa também destacou os perigos de confiar excessivamente em modelos de linguagem para combater fake news. Participantes com opiniões positivas sobre IA eram mais propensos a compartilhar tanto informações verdadeiras quanto falsas após consultar os fact-checks de ChatGPT, sugerindo que a confiança na tecnologia pode amplificar preconceitos existentes.
Além disso, o estudo reconhece limitações significativas, como o uso de uma versão desatualizada do ChatGPT e um conjunto restrito de manchetes. Esses fatores sublinham a necessidade de mais pesquisas que avaliem a interação entre humanos e IA em contextos dinâmicos, como as redes sociais.
No entanto, os pesquisadores permanecem otimistas. Eles acreditam que, com ajustes cuidadosos, modelos como ChatGPT podem ser usados para melhorar os espaços digitais, mas enfatizam que isso deve ser feito com cautela e transparência.