
Image by Vector Juice, from Freepik
L’Intelligenza Artificiale Supera Gli Umani Nei Dibattiti
L’IA può ora superare gli umani nel dibattito utilizzando dati personali – cambiando opinioni in modo più efficace e sollevando preoccupazioni riguardo la manipolazione e la persuasione di massa.
Di fretta? Ecco i fatti essenziali:
- GPT-4 ha superato le prestazioni umane nei dibattiti quando gli sono stati forniti dati personali.
- Le argomentazioni AI personalizzate hanno influenzato le opinioni con un’efficacia superiore dell’81% rispetto agli esseri umani.
- Oltre 900 partecipanti hanno dibattuto su argomenti come clima e assistenza sanitaria.
Un nuovo studio pubblicato su Nature Human Behaviour dimostra che il GPT-4 di OpenAI può essere più persuasivo degli esseri umani, specialmente quando adatta i suoi argomenti in base alle informazioni personali del suo avversario.
La ricerca, guidata da Francesco Salvi e un team dell’EPFL, ha esplorato l’efficacia del GPT-4 nel cambiare le opinioni delle persone attraverso brevi dibattiti strutturati.
I partecipanti allo studio sono stati abbinati in modo casuale con un avversario umano o un’intelligenza artificiale. Ad alcuni dibattitori è stato dato accesso a informazioni personali sul loro avversario, come età, livello di istruzione e orientamento politico.
Quando GPT-4 ha avuto accesso a questi dettagli personali, è stato significativamente più persuasivo, superando i debatedori umani dell’81%. Nei dibattiti con un vincitore chiaro, l’IA è emersa vittoriosa il 64% delle volte quando ha personalizzato i suoi argomenti.
Senza accesso ai dati personali, GPT-4 si è comportato allo stesso livello degli umani. Interessante notare che, quando agli umani venivano dati gli stessi informazioni personali, non diventavano notevolmente più persuasivi, suggerendo che l’IA è meglio equipaggiata per utilizzare strategicamente tali dati.
L’esperimento ha coinvolto oltre 900 partecipanti che hanno discusso su argomenti come uniformi scolastiche, politiche sul cambiamento climatico e riforma sanitaria. I partecipanti hanno espresso il loro grado di accordo con l’argomento del dibattito sia prima che dopo l’interazione.
Gli argomenti personalizzati di GPT-4 hanno prodotto i cambiamenti di opinione più significativi, soprattutto su temi moderatamente polarizzanti.
Questi risultati suscitano preoccupazioni riguardo al futuro del microtargeting guidato dall’IA, che utilizza messaggi individualizzati per influenzare le persone in base alle loro caratteristiche personali. Poiché l’IA può già dedurre informazioni private dal comportamento online, ciò apre la porta a campagne di persuasione estremamente efficaci in politica, pubblicità e disinformazione.
Gli esperti coinvolti nel progetto notano che le campagne di disinformazione basate sull’IA potrebbero diventare una minaccia seria.
“I responsabili delle politiche e le piattaforme online dovrebbero considerare seriamente la minaccia delle campagne di disinformazione coordinate basate sull’IA, dato che abbiamo chiaramente raggiunto il livello tecnologico in cui è possibile creare una rete di account automatizzati basati su LLM in grado di influenzare strategicamente l’opinione pubblica in una direzione”, afferma Riccardo Gallotti, che ha lavorato al progetto, come riportato dal MIT.
“Questi bot potrebbero essere utilizzati per diffondere disinformazione, e questo tipo di influenza diffusa sarebbe molto difficile da smontare in tempo reale”, ha aggiunto. Un aspetto che i ricercatori stanno ancora esplorando è il ruolo della percezione dei partecipanti in questi dibattiti.
Rimane poco chiaro se le persone fossero più disposte a cambiare opinione perché pensavano di discutere con un bot e quindi non sentivano come se stessero “perdendo” contro una persona reale, oppure se la loro supposizione che l’avversario fosse un bot è arrivata dopo che la loro opinione è cambiata, come un modo per razionalizzare l’esito.
Tuttavia, gli studiosi sottolineano che lo studio aveva delle limitazioni. I dibattiti erano brevi e strutturati, il che non cattura appieno la complessità del discorso nel mondo reale. Inoltre, i partecipanti sapevano di far parte di un esperimento, il che potrebbe aver influenzato il modo in cui hanno risposto.
Eppure, il messaggio è chiaro: l’IA sta diventando allarmantemente efficace nella persuasione, in particolare quando sa con chi sta parlando. I ricercatori avvertono che ciò potrebbe avere gravi conseguenze e chiedono ai governi e alle aziende tecnologiche di implementare salvaguardie per prevenire un potenziale abuso.