A investigação científica gerada pela IA está a poluir o ecossistema de informação académica online, de acordo com um relatório preocupante publicado na Harvard Kennedy School’s Revisão de desinformação.
Uma equipe de pesquisadores investigou a prevalência de artigos de pesquisa com evidências de texto gerado artificialmente no Google Scholar, um mecanismo de busca acadêmico que facilita a busca por pesquisas publicadas historicamente em diversas revistas acadêmicas.
A equipe interrogou especificamente o uso indevido de transformadores generativos pré-treinados (ou GPTs), um tipo de modelo de linguagem grande (LLM) que inclui software agora familiar, como o ChatGPT da OpenAI. Esses modelos são capazes de interpretar rapidamente entradas de texto e gerar respostas rapidamente, na forma de figuras, imagens e longas linhas de texto.
Na pesquisa, a equipe analisou uma amostra de artigos científicos encontrados no Google Scholar com indícios de uso de GPT. Os artigos selecionados continham uma ou duas frases comuns usadas por agentes conversacionais (geralmente, chatbots) apoiados por LLMs. Os pesquisadores então investigaram até que ponto esses documentos questionáveis eram distribuídos e hospedados na Internet.
“O risco do que chamamos de ‘hacking de evidências’ aumenta significativamente quando a pesquisa gerada pela IA é espalhada em motores de busca”, disse Björn Ekström, pesquisador da Escola Sueca de Biblioteconomia e Ciência da Informação e coautor do artigo, em um lançamento da Universidade de Borås. “Isto pode ter consequências tangíveis, uma vez que resultados incorretos podem penetrar ainda mais na sociedade e, possivelmente, também em cada vez mais domínios.”
A forma como o Google Scholar extrai pesquisas da Internet, de acordo com a equipe recente, não exclui artigos cujos autores não possuem afiliação científica ou revisão por pares; o mecanismo atrairá capturas acessórias acadêmicas – artigos de estudantes, relatórios, pré-impressões e muito mais – junto com a pesquisa que passou por um nível mais elevado de escrutínio.
A equipe descobriu que dois terços dos artigos estudados foram, pelo menos em parte, produzidos através do uso não divulgado de GPTs. Dos artigos fabricados pela GPT, os pesquisadores descobriram que 14,5% pertenciam à saúde, 19,5% pertenciam ao meio ambiente e 23% pertenciam à computação.
“A maioria desses artigos fabricados pela GPT foram encontrados em revistas e documentos de trabalho não indexados, mas alguns casos incluíram pesquisas publicadas em revistas científicas convencionais e anais de conferências”, escreveu a equipe.
Os pesquisadores descreveram dois riscos principais trazidos por este desenvolvimento. “Em primeiro lugar, a abundância de ‘estudos’ fabricados que se infiltram em todas as áreas da infra-estrutura de investigação ameaça sobrecarregar o sistema de comunicação académica e pôr em risco a integridade do registo científico”, escreveu o grupo. “Um segundo risco reside na possibilidade crescente de que conteúdo de aparência científica convincente tenha sido de fato criado de forma enganosa com ferramentas de IA e também otimizado para ser recuperado por mecanismos de busca acadêmicos disponíveis publicamente, especialmente o Google Scholar.”
Como o Google Acadêmico não é um banco de dados acadêmico, é fácil de ser usado pelo público ao pesquisar literatura científica. Isso é bom. Infelizmente, é mais difícil para o público separar o joio do trigo quando se trata de periódicos respeitáveis; até mesmo a diferença entre uma pesquisa revisada por pares e um documento de trabalho pode ser confusa. Além disso, o texto gerado pela IA foi encontrado em alguns trabalhos revisados por pares, bem como em artigos menos examinados, indicando que o trabalho fabricado pela GPT está turvando as águas em todo o sistema de informação acadêmica on-line – não apenas no trabalho que existe fora da maioria dos canais oficiais.
“Se não pudermos confiar que a investigação que lemos é genuína, corremos o risco de tomar decisões com base em informações incorretas”, disse a coautora do estudo Jutta Haider, também investigadora da Escola Sueca de Biblioteconomia e Ciência da Informação, no mesmo comunicado. “Mas por mais que esta seja uma questão de má conduta científica, é uma questão de literacia mediática e informacional.”
Nos últimos anos, os editores não conseguiram selecionar com sucesso um punhado de artigos científicos que eram, na verdade, totalmente absurdos. Em 2021, a Springer Nature foi forçada a retratar mais de 40 artigos no Jornal Árabe de Geociênciasque apesar do título da revista discutiu temas variados, incluindo esportes, poluição do ar e medicina infantil. Além de fora do assunto, os artigos eram mal escritos – a ponto de não fazerem sentido – e as frases muitas vezes careciam de uma linha de pensamento convincente.
A inteligência artificial está agravando o problema. Em fevereiro passado, a editora Frontiers foi criticada por publicar um artigo em seu periódico Célula e Biologia do Desenvolvimento que incluía imagens geradas pelo software de IA Midjourney; especificamente, muito imagens anatomicamente incorretas de vias de sinalização e genitália de ratos. A Frontiers retirou o jornal vários dias após sua publicação.
Os modelos de IA podem ser uma bênção para a ciência; os sistemas podem decodificar textos frágeis do Império Romano, encontrar Linhas de Nazca até então desconhecidas e revelar detalhes ocultos em fósseis de dinossauros. Mas o impacto da IA pode ser tão positivo ou negativo quanto o ser humano que a utiliza.
Periódicos revisados por pares – e talvez hosts e mecanismos de busca para textos acadêmicos – precisam de barreiras de proteção para garantir que a tecnologia funcione a serviço da descoberta científica, e não em oposição a ela.