Mattel e OpenAI Affrontano le Critiche per i Giocattoli AI

Image By Sean Bernstein, from Unsplash

Mattel e OpenAI Affrontano le Critiche per i Giocattoli AI

Tempo di lettura: 4 Min.

Gli difensori dei consumatori stanno mettendo in guardia sui rischi rappresentati dalla nuova collaborazione tra Mattel e OpenAI per creare giocattoli alimentati da intelligenza artificiale.

Hai fretta? Ecco i fatti essenziali:

  • Mattel e OpenAI prevedono di lanciare giocattoli alimentati da intelligenza artificiale entro il 2026.
  • I difensori dei consumatori mettono in guardia dai potenziali danni allo sviluppo dei bambini.
  • I giocattoli potrebbero elaborare i dati vocali dei bambini e i loro schemi comportamentali.

Il co-presidente di Public Citizen, Robert Weissman, richiede a Mattel più trasparenza e di rivelare i dettagli sul loro prossimo prodotto.

“Dotare i giocattoli di voci che sembrano umane e che sono in grado di sostenere conversazioni simili a quelle umane rischia di infliggere danni reali ai bambini”, ha detto Weissman, come riportato per la prima volta da Ars Technica.

Teme che questi giocattoli possano danneggiare lo sviluppo sociale, interferire con le amicizie reali e causare danni psicologici a lungo termine. “Mattel non dovrebbe sfruttare la fiducia dei genitori per condurre un esperimento sociale imprudente sui nostri figli vendendo giocattoli che incorporano l’IA”, ha aggiunto Weissman.

Il primo prodotto della partnership non sarà destinato ai bambini di età inferiore ai 13 anni, secondo una fonte anonima di Axios, che Ars Technica suggerisce sia probabilmente dovuto alle restrizioni di età di OpenAI. I critici sostengono che la restrizione di età non fornisca una protezione sufficiente.

OpenAI ha rifiutato di commentare, mentre Mattel non ha ancora risposto all’indagine di Ars Technica. Il primo prodotto della partnership verrà annunciato quest’anno e rilasciato nel 2026, secondo il comunicato stampa di Mattel, che afferma che la collaborazione supporterà prodotti ed esperienze alimentate dall’IA, basate sui marchi di Mattel.

Tuttavia, critici come l’esecutiva nel campo della tecnologia Varundeep Kaur e l’esperto di sicurezza digitale Adam Dodge avvertono che i giocattoli AI potrebbero esporre i bambini a violazioni della privacy, contenuti prevenuti o risposte confuse dei chatbot. Kaur ha inoltre segnalato il pericolo delle allucinazioni AI, affermando che questi giocattoli potrebbero dare “risposte inappropriate o bizzarre” che sono inquietanti per i bambini.

Ars Technica riporta che critici come Varundeep Kaur e Adam Dodge, rispettivamente un dirigente nel campo della tecnologia e un esperto di sicurezza digitale, esprimono preoccupazioni che i giocattoli AI potrebbero portare a violazioni della privacy, consegna di contenuti prevenuti e risposte confuse dei chatbot.

Kaur ha sottolineato il rischio delle allucinazioni dell’IA, che potrebbero far generare ai giocattoli risposte inquietanti o strane che potrebbero turbare i bambini. Ha anche aggiunto che ulteriori rischi potrebbero essere legati alla registrazione dei giocattoli di “dati vocali, schemi comportamentali e preferenze personali.”

Ars Technica riporta che Dodge ha aggiunto: “imprevedibile, servile e dipendente“, e ha avvertito di scenari peggiore, come i giocattoli che promuovono l’autolesionismo. Entrambi gli esperti hanno chiamato per controlli parentali rigorosi, trasparenza e audit indipendenti prima di ogni lancio.

Infatti, i ricercatori del MIT hanno emesso un avvertimento separato ma correlato riguardo la natura addictive dei compagni AI.

Anche Mattel ha affrontato reazioni simili in passato. Nel 2015, l’azienda ha lanciato “Hello Barbie”, una bambola connessa al Wi-Fi che ascoltava i bambini e rispondeva utilizzando AI basata su cloud, come riportato da Forbes.

I critici dell’epoca, tra cui l’esperto di cybersecurity Joseph Steinberg, avevano avvertito che il giocattolo rappresentava una minaccia alla privacy di enorme portata. Hello Barbie registrava e caricava le conversazioni dei bambini su un server gestito da una terza parte, ToyTalk, che condivideva i dati con i fornitori per migliorare i sistemi di intelligenza artificiale.

Steinberg ha sottolineato che i bambini confidano spesso pensieri profondamente personali alle loro bambole – a volte discutendo paure, problemi familiari o problemi scolastici. “Vorreste che le registrazioni delle loro intime conversazioni infantili rimanessero nelle mani di parti sconosciute?” ha chiesto, come riportato da Forbes.

Gli esperti di privacy sostengono che, a meno che le aziende non offrano avvertenze in linguaggio chiaro e semplice sulle confezioni, molti genitori esporranno inconsapevolmente la vita privata dei loro figli alle aziende sotto il pretesto di comodità e intrattenimento.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!