Lo Studio Avverte che l’IA Potrebbe Potenziare la Polarizzazione dei Social Media

Lo Studio Avverte che l’IA Potrebbe Potenziare la Polarizzazione dei Social Media

Tempo di lettura: 3 Min.

L’intelligenza artificiale potrebbe alimentare la polarizzazione sui social media, mettono in guardia ricercatori e studenti della Concordia, sollevando preoccupazioni sulla libertà di parola e sulla disinformazione.

Hai fretta? Ecco i fatti essenziali:

  • Gli algoritmi AI possono diffondere divisioni utilizzando solo conteggi dei follower e post recenti.
  • I bot di apprendimento rinforzato si adattano rapidamente per sfruttare le vulnerabilità dei social media.
  • Gli esperti avvertono che le piattaforme rischiano sia la censura che la manipolazione non controllata.

Anche se la polarizzazione sui social media non è una novità, i ricercatori e gli attivisti studenteschi dell’Università di Concordia avvertono che l’intelligenza artificiale potrebbe peggiorare notevolmente il problema.

“Invece di mostrarci video di ciò che sta succedendo o contenuti dei giornalisti che ne stanno parlando, vediamo invece rappresentazioni artistiche di intelligenza artificiale eccessivamente drammatizzate di cose di cui dovremmo preoccuparci politicamente […] Questo allontana davvero le persone e rimuove la responsabilità” ha detto Danna Ballantyne, coordinatrice per gli affari esterni e la mobilitazione dell’Unione Studentesca di Concordia, come riportato da The Link.

Le sue preoccupazioni rispecchiano una nuova ricerca della Concordia, dove il professor Rastko R. Selmic e lo studente di dottorato Mohamed N. Zareer hanno dimostrato come i bot di apprendimento per rinforzo possono alimentare la divisione online. “Il nostro obiettivo era capire quale soglia l’intelligenza artificiale può avere sulla polarizzazione e sui social network, e simulare […] per misurare come può sorgere questa polarizzazione e disaccordo.” ha detto Zareer, come riportato da The Link.

I risultati suggeriscono che gli algoritmi non hanno bisogno di dati privati per alimentare la divisione, dove semplici segnali come il conteggio dei follower e i post recenti sono sufficienti. “È preoccupante, perché [anche se] non è un semplice robot, è comunque un algoritmo che puoi creare sul tuo computer […] E quando hai abbastanza potenza di calcolo, puoi influenzare sempre più reti” ha spiegato Zareer a The Link.

Questo riflette un corpo di ricerca più ampio che mostra come l’apprendimento rinforzato può essere armato per spingere le comunità a dividersi. Lo studio di Concordia ha utilizzato il Double-Deep Q-learning e ha dimostrato che gli agenti AI avversari possono “adattarsi in modo flessibile ai cambiamenti all’interno della rete, permettendole di sfruttare efficacemente le vulnerabilità strutturali e amplificare le divisioni tra gli utenti”, come ha sottolineato la ricerca.

Effettivamente, il Double-Deep Q-learning è una tecnica di intelligenza artificiale in cui un bot apprende azioni ottimali attraverso tentativi ed errori. Utilizza reti neurali profonde per gestire problemi complessi e due stime di valore per evitare la sovrastima delle ricompense. Nei social media, può diffondere strategicamente contenuti per aumentare la polarizzazione con dati minimi.

Zareer ha avvertito che i responsabili delle politiche devono affrontare un equilibrio difficile. “C’è una linea sottile tra monitoraggio e censura e il tentativo di controllare la rete”, ha detto a The Link. Troppo poca supervisione permette ai bot di manipolare le conversazioni, mentre troppa può rischiare di soffocare la libertà di parola.

Nel frattempo, studenti come Ballantyne temono che l’IA stia cancellando l’esperienza vissuta. “L’IA cancella completamente questo,” ha detto a The Link.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!