Image by Ryunosuke Kikuno, from Unsplash
Studi Dimostrano che ChatGPT e Altri Strumenti di IA Citano Ricerche Revocate
Alcuni chatbot di intelligenza artificiale stanno fornendo risposte basate su ricerche difettose tratte da articoli scientifici ritirati, mostrano studi recenti.
Di fretta? Ecco i fatti essenziali:
- I chatbot AI citano a volte articoli scientifici ritirati senza avvisare gli utenti.
- ChatGPT GPT-4o ha citato articoli ritirati cinque volte, avvertendo solo in tre occasioni.
- Gli esperti avvertono che i dati sui ritiri sono inconsistenti e spesso difficili da tracciare per l’IA.
I risultati della ricerca, che sono stati confermati da MIT Technology Review, sollevano dubbi sulla affidabilità dell’IA quando si tratta di rispondere a domande scientifiche rivolte a ricercatori, studenti e al pubblico in generale.
I chatbot AI sono già noti per inventare a volte delle referenze. Ma gli esperti avvertono che, anche quando le fonti sono reali, si presentano problemi se gli articoli stessi sono stati rimossi dal registro scientifico.
“Il chatbot sta ‘usando un vero articolo, materiale reale, per dirti qualcosa’”, dice Weikuan Gu, ricercatore medico presso l’Università del Tennessee, come riportato dal MIT. “Ma, aggiunge, se le persone guardano solo il contenuto della risposta e non cliccano sull’articolo per vedere che è stato ritirato, questo è davvero un problema”, ha aggiunto.
Il MIT riferisce che il team di Gu ha testato ChatGPT, basato sul modello GPT-4o di OpenAI, con 21 articoli di imaging medico ritirati. Il chatbot ha citato fonti ritirate cinque volte ma ha avvertito gli utenti di questo problema solo in tre di questi casi. Un altro studio ha riscontrato problemi simili con GPT-4o mini, che non ha menzionato affatto i ritratti.
Il problema si estende oltre ChatGPT. Il MIT ha valutato strumenti di intelligenza artificiale orientati alla ricerca testando Elicit, Ai2 ScholarQA, Perplexity e Consensus. Ognuno ha citato studi che erano stati ritirati e non ha avvertito a riguardo. Gli ricercatori hanno detto che questo è accaduto più volte in decine di casi. Alcune aziende dicono che stanno ora migliorando il rilevamento.
“Fino a poco tempo fa, non avevamo grandi dati di ritrattazione nel nostro motore di ricerca,” ha detto Christian Salem, cofondatore di Consensus, che da allora ha aggiunto nuove fonti per ridurre gli errori.
Gli esperti sostengono che i dati di ritrattazione siano discontinui e inconsistenti. “Dove le cose vengono ritrattate, possono essere segnate come tali in modi molto diversi,” dice Caitlin Bakker dell’Università di Regina.
I ricercatori avvertono gli utenti di rimanere cauti. “Siamo nelle fasi molto, molto iniziali, e fondamentalmente devi essere scettico”, afferma Aaron Tay della Singapore Management University.