Gli esperti avvertono: la servilità dell’IA è un “Modello Oscuro” utilizzato per il profitto

Photo by Alena Plotnikova on Unsplash

Gli esperti avvertono: la servilità dell’IA è un “Modello Oscuro” utilizzato per il profitto

Tempo di lettura: 2 Min.

Gli esperti avvertono che le personalità servili dei modelli di Intelligenza Artificiale vengono utilizzate come un “dark pattern” per coinvolgere gli utenti e manipolarli a scopo di lucro. Il comportamento lusinghiero del chatbot può favorire la dipendenza e alimentare delusioni, potenzialmente portando alla condizione nota come “psicosi da IA”.

Di fretta? Ecco i fatti rapidi:

  • Gli esperti mettono in guardia sulla personalità adulatrice dei chatbot, sviluppata dalle aziende tecnologiche per coinvolgere gli utenti.
  • Il comportamento lusinghiero è considerato un “dark pattern” per mantenere gli utenti legati alla tecnologia.
  • Un recente studio del MIT ha rivelato che i chatbot possono incoraggiare il pensiero delirante degli utenti.

Secondo TechCrunch, diversi esperti hanno espresso preoccupazioni riguardo alle aziende tecnologiche come Meta e OpenAI che progettano chatbot con personalità eccessivamente accomodanti per mantenere gli utenti in interazione con l’IA.

Webb Keane, autore di “Animals, Robots, Gods” e professore di antropologia, ha spiegato che i chatbot sono progettati intenzionalmente per dire agli utenti ciò che vogliono sentire. Questo comportamento eccessivamente lusinghiero, noto come “servilismo”, è stato addirittura riconosciuto come un problema dai leader tecnologici come Sam Altman.

Keane sostiene che i chatbot siano stati sviluppati con il servilismo come un “modello oscuro” per manipolare gli utenti a scopo di lucro. Indirizzandosi agli utenti in tono amichevole e utilizzando un linguaggio in prima e seconda persona, questi modelli di intelligenza artificiale possono portare alcuni utenti ad antropomorfizzare – o “umanizzare” – il bot.

“Quando qualcosa dice ‘tu’ e sembra rivolgersi solo a me, direttamente, può sembrare molto più vicino e personale, e quando si riferisce a se stesso come ‘io’, è facile immaginare che ci sia qualcuno lì”, ha detto Keane in un’intervista con TechCrunch.

Alcuni utenti stanno addirittura ricorrendo alla tecnologia IA come terapisti. Un recente studio del MIT ha analizzato se i grandi modelli di linguaggio (LLM) dovrebbero essere utilizzati per la terapia e ha scoperto che le loro tendenze adulatorie possono incoraggiare il pensiero delirante e produrre risposte inappropriate a certe condizioni.

“Concludiamo che gli LLM non dovrebbero sostituire i terapeuti, e discutiamo dei ruoli alternativi per gli LLM nella terapia clinica”, afferma il riassunto dello studio.

Qualche giorno fa, uno psichiatra di San Francisco, il dott. Keith Sakata, ha lanciato un avvertimento riguardo una crescente tendenza alla “psicosi da IA” dopo aver trattato recentemente 12 pazienti.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!