ChatGPT tem sido alvo de diversas análises sobre suas “alucinações”. Em um estudo recente, pesquisadores argumentam que o termo “alucinações” não é o mais adequado para descrever os erros cometidos por modelos de linguagem artificial. Segundo eles, o termo correto seria algo bem menos lisonjeiro: “bullshit”.
O Que São “Alucinações” do ChatGPT?
Pesquisadores Michael Townsen Hicks, James Humphries e Joe Slater, da Universidade de Glasgow, publicaram um artigo no journal Ethics and Information Technology discutindo a natureza das alucinações do ChatGPT. Eles explicam que, ao contrário das alucinações humanas, que envolvem percepções incorretas ou inexistentes, os modelos de linguagem não percebem nada. Em vez disso, eles geram respostas que muitas vezes são pura invenção. Dessa forma, o termo mais correto para descrever o que acontece é “bullshit” ou “conversa-fiada”, “lorota”, “besteira” no bom Português.
O artigo baseia-se na obra do filósofo Harry Frankfurt, “On Bullshit”. Frankfurt define “bullshit” como qualquer afirmação feita onde o falante é indiferente à verdade, ou seja, “lorota”. Podemos dividir isso em duas categorias: o bullshit “duro”, que tem a intenção de enganar, e o bullshit “leve”, que é feito sem uma agenda específica. De acordo com os pesquisadores, o ChatGPT se enquadra nesta última categoria, pois não possui atitudes em relação à verdade nem intenção de enganar.
Por Que Entender que o ChatGPT Fala um Monte de Lorota Importa?
A distinção é crucial porque influencia a maneira como tratamos e entendemos essas tecnologias. Chamar os erros do ChatGPT de “alucinações” pode induzir as pessoas a pensarem que esses modelos estão tentando transmitir informações percebidas, o que não é o caso. Isso pode levar a uma compreensão equivocada sobre o funcionamento da IA, influenciando decisões de investidores, formuladores de políticas e do público em geral. Por exemplo, no setor financeiro, empresas e investidores podem se interessar em utilizar ChatGPT para gerar relatórios de análise de mercado ou recomendações de investimento. Assim, investidores podem acreditar que a IA está mais avançada do que realmente é. Portanto, resultando em investimentos mal direcionados ou expectativas irrealistas sobre os retornos financeiros. Esses relatórios frequentemente apresentam previsões financeiras baseadas em dados fictícios ou mal interpretados, o que pode levar a decisões de investimento desastrosas e perdas financeiras significativas.
Em um contexto médico, o ChatGPT pode ser usado para obter insights sobre diagnósticos e tratamentos. No entanto, a IA fornece informações incorretas ou desatualizadas. Essas informações podem levar a diagnósticos errôneos ou tratamentos inadequados. colocando a saúde dos pacientes em risco.
O público em geral, por sua vez, pode desenvolver uma confiança excessiva ou um medo infundado em relação à IA. Essa falta de percepção pode levar a decisões pessoais e profissionais desastrosas. Compreender que o ChatGPT gera “bullshit”, e não “alucinações”, ajusta essas percepções para refletir mais precisamente a realidade do que essas tecnologias podem ou não fazer. Assim, promovendo uma abordagem mais informada e pragmática em relação ao desenvolvimento e uso da IA.
Exemplos Reais e Implicações Futuras
Um exemplo notório é o caso de um advogado que usou o ChatGPT para escrever um parecer jurídico, que acabou incluindo precedentes legais falsos. Neste incidente, o ChatGPT gerou documentos que pareciam convincentes e bem estruturados, mas que continham referências a casos jurídicos inexistentes. Isso demonstra claramente como a IA pode produzir informações inverídicas sem qualquer intenção ou consciência, apenas replicando padrões de linguagem sem verificar a veracidade dos dados.
Outro exemplo significativo é o uso do ChatGPT por estudantes para escrever trabalhos acadêmicos. Em vários casos, a IA produziu artigos com referências bibliográficas inventadas, títulos de artigos científicos inexistentes e dados falsos. Isso pode prejudicar a integridade acadêmica e levar a avaliações injustas.
Esses exemplos sublinham a importância de entender as limitações desses sistemas e a necessidade de implementar verificações rigorosas e supervisão humana ao utilizar IA em contextos críticos. Portanto, a dependência crescente dessas tecnologias para tarefas sensíveis pode aumentar significativamente o risco de disseminação de informações errôneas, com consequências potencialmente graves em diversas áreas profissionais.