L’IA di Google diventa di nuovo virale per aver “allucinato” falsi significati di idiomi

Photo by Mitchell Luo on Unsplash

L’IA di Google diventa di nuovo virale per aver “allucinato” falsi significati di idiomi

Tempo di lettura: 3 Min.

Gli utenti dei social media hanno notato che la funzione AI Overviews di Google fornisce spiegazioni e definizioni per idiomi falsi quando includono la parola “significato” dopo una frase casuale. Molte di queste risposte generate dall’IA sono diventate virali, scatenando risate tra gli utenti dei social media.

Hai fretta? Ecco i fatti rapidi:

  • Gli utenti sui social media hanno notato che le Panoramiche AI di Google inventano spiegazioni per idiomi falsi.
  • Molti utenti su Threads, X e Bluesky hanno segnalato allucinazioni simili di detti assurdi e inventati.
  • Non è la prima volta che le Panoramiche AI vanno virali per aver fornito informazioni errate.

Questa non è la prima volta che AI Overviews si guadagna una reputazione imbarazzante. L’anno scorso, lo strumento AI di Google Search è diventato virale per aver fornito risposte errate—alcune delle quali basate su vecchi post di Reddit—mettendo in discussione la credibilità, l’affidabilità e l’accuratezza del modello.

Questa volta, il modello di intelligenza artificiale ha fornito agli utenti delle risposte “serie” a detti inventati. Secondo Mashable, questo bisogno dei modelli di intelligenza artificiale di fornire una risposta anche quando non hanno la risposta o informazioni sufficienti per fornire una risposta corretta è ora noto come “AI-splaining.”

Molti utenti hanno condiviso sui social media alcuni esempi della situazione attuale con le Panoramiche AI. “Qualcuno su Threads ha notato che puoi digitare qualsiasi frase casuale su Google, poi aggiungere ‘significato’ dopo, e otterrai una spiegazione AI di un famoso idioma o frase che hai appena inventato,” ha scritto un utente di Bluesky che ha incluso screenshot del suo test.

Ha scritto “non puoi leccare un tasso due volte”, seguito dalla parola “significato”, e il modello di intelligenza artificiale ha fornito una spiegazione per il falso idioma: “Significa che non puoi ingannare o truffare qualcuno una seconda volta dopo che sono stati ingannati una volta”. AI Overviews ha poi fornito una spiegazione più dettagliata, scomponendola parola per parola.

“Le risposte a questo thread sono molto divertenti, ma è un segnale d’allarme che una delle funzioni chiave di Google – la capacità di verificare una citazione, verificare una fonte, o rintracciare qualcosa a metà ricordato – diventerà molto più difficile se l’AI preferisce legittimare le possibilità statistiche rispetto alla verità effettiva”, ha aggiunto l’utente.

Una giornalista di Yahoo! Tech ha confermato l’allucinazione scrivendo falsi idiomi Pokémon come “Non lasciare mai che il tuo cavallo giochi a Pokémon” e il modello di AI ha risposto con una spiegazione completamente inventata: “È un avviso umoristico e leggero contro il permettere a un cavallo, che è un grande animale con una forte volontà, di impegnarsi in attività, come i videogiochi o il gioco di carte Pokémon, che sono tipicamente considerate attività umane.”

Google AI Overviews si è espansa in più paesi e regioni negli ultimi mesi, e ha recentemente raggiunto oltre 1,5 miliardi di utenti al mese.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!