Polemico Articolo sull’IA Ritirato Dopo un’Indagine del MIT

Image by Julia Koblitz, from Unsplash

Polemico Articolo sull’IA Ritirato Dopo un’Indagine del MIT

Tempo di lettura: 3 Min.

Il Massachusetts Institute of Technology (MIT) afferma di non sostenere più un importante articolo di ricerca sull’IA scritto da uno dei suoi ex dottorandi.

Di fretta? Ecco i fatti essenziali:

  • Il MIT ha disconosciuto un articolo di ricerca sull’IA, diffuso ampiamente, di un ex studente.
  • L’articolo sosteneva che l’IA avesse potenziato le scoperte in laboratorio ma avesse ridotto la soddisfazione dei ricercatori.
  • Il MIT ha citato la mancanza di fiducia nei dati e nelle conclusioni dell’articolo.

L’articolo ha attirato molta attenzione affermando che l’utilizzo di uno strumento di intelligenza artificiale in un laboratorio di scienze dei materiali ha portato a più scoperte, ma ha anche reso gli scienziati meno soddisfatti del loro lavoro.

Il MIT ha rilasciato venerdì una dichiarazione affermando di “non avere fiducia nell’origine, affidabilità o validità dei dati e non avere fiducia nella veridicità della ricerca contenuta nel documento”. L’università non ha nominato lo studente, citando le leggi sulla privacy, ma l’autore è stato identificato dal The Wall Street Journal (WSJ) come Aidan Toner-Rodgers. Egli non è più al MIT.

Toner-Rodgers ha presentato il documento, intitolato “Intelligenza Artificiale, Scoperta Scientifica e Innovazione di Prodotto”, a una importante conferenza di economia e l’ha pubblicato online l’anno scorso. Fu elogiato all’epoca dai economisti del MIT Daron Acemoğlu, che vinse il Premio Nobel nel 2024, e David Autor, che disse di essere “stordito” dai risultati, come precedentemente riportato dal WSJ.

Ma a gennaio, un informatico ha messo in dubbio l’esistenza del laboratorio e il funzionamento dello strumento di intelligenza artificiale. Incapaci di risolvere i dubbi, Acemoglu e Autor hanno allertato il MIT, che ha poi condotto una revisione confidenziale, come riportato dal WSJ.

Successivamente, l’università ha richiesto che l’articolo fosse rimosso sia dalla rivista accademica in cui era stato presentato sia dal sito di pre-stampa pubblico arXiv. Il WSJ ha riportato che il MIT si è rifiutato di specificare quali fossero gli errori dell’articolo, e ha affermato di aver basato questa decisione sulle “leggi sulla privacy degli studenti e sulla politica del MIT”.

Il MIT ha sottolineato che proteggere l’integrità della ricerca è fondamentale, affermando che l’articolo “dovrebbe essere ritirato dal discorso pubblico” per evitare la diffusione di affermazioni errate sull’impatto dell’IA.

L’incidente ha acuito le preoccupazioni esistenti sull’applicazione dell’IA generativa nella ricerca scientifica. L’adozione crescente di ChatGPT e strumenti simili nel lavoro accademico ha portato gli esperti ad avvertire del pericolo crescente dei contenuti generati da IA.

Specificamente, l’assenza di manipolazione rilevabile di queste immagini rende difficile identificare attività fraudolente. Gli ricercatori ritengono che i contenuti generati dall’IA potrebbero già essere in fase di inserimento nelle riviste senza essere rilevati, minacciando l’affidabilità della letteratura scientifica.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!