Image by Julio Lopez, from Unsplash
Meta e Character.ai Affrontano Indagini per Presunta Sfruttamento Infantile Tramite Chatbot AI
Meta e la start-up di intelligenza artificiale Character.ai sono sotto indagine negli Stati Uniti per il modo in cui commercializzano i loro chatbot ai bambini.
Hai fretta? Ecco i fatti essenziali:
- Il Texas indaga su Meta e Character.ai per pratiche ingannevoli di chatbot rivolte ai bambini.
- Paxton avverte che i chatbot AI ingannano i bambini fingendosi strumenti terapeutici.
- Meta e Character.ai negano qualsiasi illecito, citando politiche rigorose e intenti di intrattenimento.
Meta e Character.ai stanno affrontando critiche perché, a quanto pare, presentano i loro sistemi AI come strumenti terapeutici e permettono conversazioni inappropriate con i bambini.
L’attorney-general del Texas, Ken Paxton, ha annunciato un’indagine su Meta’s AI Studio e Character.ai per potenziali “pratiche commerciali ingannevoli”, come riportato per la prima volta dal Financial Times (FT).
Il suo ufficio ha dichiarato che i chatbot sono stati presentati come “strumenti terapeutici professionali, nonostante manchino delle adeguate credenziali mediche o supervisione.” Paxton ha avvertito: “Posando come fonti di supporto emotivo, le piattaforme di intelligenza artificiale possono ingannare gli utenti vulnerabili, soprattutto i bambini, facendoli credere di ricevere legittima assistenza sanitaria mentale”, come riportato dal FT.
La piattaforma Character.ai consente agli utenti di costruire i propri bot attraverso una funzionalità che include modelli di terapisti. Il FT riporta che il chatbot “Psicologo” è stato utilizzato più di 200 milioni di volte. Le famiglie hanno già presentato cause legali, sostenendo che i loro figli sono stati danneggiati da tali interazioni.
Allarmantemente, le piattaforme si fanno passare per professionisti con licenza rivendicando la riservatezza, nonostante le “interazioni fossero in realtà registrate e “sfruttate per la pubblicità mirata e lo sviluppo algoritmico”, come osservato dal FT.
L’indagine segue un’altra inchiesta avviata dal senatore Josh Hawley dopo che Reuters ha riportato che le politiche interne di Meta permettono al suo chatbot di avere conversazioni “sensuali” e “romantiche” con i bambini.
Hawley ha definito le rivelazioni “ripugnanti e oltraggiose” e ha postato:
C’è qualcosa – QUALSIASI COSA – che le Big Tech non farebbero per un guadagno facile? Ora scopriamo che i chatbot di Meta erano programmati per intrattenere conversazioni esplicite e “sensuali” con bambini di 8 anni. È disgustoso. Sto avviando un’indagine completa per ottenere risposte. Big Tech: Lasciate in pace i nostri bambini pic.twitter.com/Ki0W94jWfo
— Josh Hawley (@HawleyMO) 15 Agosto 2025
Meta ha negato le accuse, dichiarando che gli esempi trapelati “erano e sono errati e incoerenti con le nostre politiche, e sono stati rimossi”, secondo quanto riportato dal FT. Un portavoce ha aggiunto che l’azienda proibisce contenuti che sessualizzano i bambini. Anche Character.ai ha sottolineato che i suoi bot sono fittizi e “destinati all’intrattenimento”.