Meta e Character.ai Affrontano Indagini per Presunta Sfruttamento Infantile Tramite Chatbot AI

Image by Julio Lopez, from Unsplash

Meta e Character.ai Affrontano Indagini per Presunta Sfruttamento Infantile Tramite Chatbot AI

Tempo di lettura: 3 Min.

Meta e la start-up di intelligenza artificiale Character.ai sono sotto indagine negli Stati Uniti per il modo in cui commercializzano i loro chatbot ai bambini.

Hai fretta? Ecco i fatti essenziali:

  • Il Texas indaga su Meta e Character.ai per pratiche ingannevoli di chatbot rivolte ai bambini.
  • Paxton avverte che i chatbot AI ingannano i bambini fingendosi strumenti terapeutici.
  • Meta e Character.ai negano qualsiasi illecito, citando politiche rigorose e intenti di intrattenimento.

Meta e Character.ai stanno affrontando critiche perché, a quanto pare, presentano i loro sistemi AI come strumenti terapeutici e permettono conversazioni inappropriate con i bambini.

L’attorney-general del Texas, Ken Paxton, ha annunciato un’indagine su Meta’s AI Studio e Character.ai per potenziali “pratiche commerciali ingannevoli”, come riportato per la prima volta dal Financial Times (FT).

Il suo ufficio ha dichiarato che i chatbot sono stati presentati come “strumenti terapeutici professionali, nonostante manchino delle adeguate credenziali mediche o supervisione.” Paxton ha avvertito: “Posando come fonti di supporto emotivo, le piattaforme di intelligenza artificiale possono ingannare gli utenti vulnerabili, soprattutto i bambini, facendoli credere di ricevere legittima assistenza sanitaria mentale”, come riportato dal FT.

La piattaforma Character.ai consente agli utenti di costruire i propri bot attraverso una funzionalità che include modelli di terapisti. Il FT riporta che il chatbot “Psicologo” è stato utilizzato più di 200 milioni di volte. Le famiglie hanno già presentato cause legali, sostenendo che i loro figli sono stati danneggiati da tali interazioni.

Allarmantemente, le piattaforme si fanno passare per professionisti con licenza rivendicando la riservatezza, nonostante le “interazioni fossero in realtà registrate e “sfruttate per la pubblicità mirata e lo sviluppo algoritmico”, come osservato dal FT.

L’indagine segue un’altra inchiesta avviata dal senatore Josh Hawley dopo che Reuters ha riportato che le politiche interne di Meta permettono al suo chatbot di avere conversazioni “sensuali” e “romantiche” con i bambini.

Hawley ha definito le rivelazioni “ripugnanti e oltraggiose” e ha postato:

Meta ha negato le accuse, dichiarando che gli esempi trapelati “erano e sono errati e incoerenti con le nostre politiche, e sono stati rimossi”, secondo quanto riportato dal FT. Un portavoce ha aggiunto che l’azienda proibisce contenuti che sessualizzano i bambini. Anche Character.ai ha sottolineato che i suoi bot sono fittizi e “destinati all’intrattenimento”.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!