
Image by Mario Gogh, from Unsplash
L’IA può comprendere il colore senza vederlo?
La ricerca dimostra che ChatGPT comprende le metafore comuni sui colori, ma non riesce a capire quelle nuove.
Di fretta? Ecco i fatti essenziali:
- L’IA fatica con metafore di colore nuove o invertite.
- Le persone daltoniche e quelle che vedono i colori interpretano le metafore in modo simile.
- I pittori hanno superato gli altri nelle nuove metafore del colore.
La ricerca dimostra che ChatGPT e altri strumenti di intelligenza artificiale eccellono nel processare metafore di colore di base, ma falliscono nel comprendere metafore creative. Gli scienziati hanno studiato le risposte umane e di ChatGPT a metafore come “sentirsi blu” e “vedere rosso” per determinare le capacità di elaborazione del linguaggio dei sistemi di intelligenza artificiale, come riportato per la prima volta da Neuroscience News (NN).
Lo studio, guidato dalla Professoressa Lisa Aziz-Zadeh presso il USC Center for the Neuroscience of Embodied Cognition, ha scoperto che le persone che vedono i colori e quelle daltoniche hanno prestazioni simili nell’interpretare metafore, suggerendo che vedere i colori non è necessario per comprenderne il significato.
Tuttavia, le persone con esperienza pratica, come i pittori, hanno dimostrato abilità superiori nell’interpretare metafore complesse, inclusa “la riunione lo ha reso bordeaux”.
ChatGPT, che elabora enormi quantità di testo scritto, ha ottenuto buoni risultati su espressioni comuni e ha offerto spiegazioni informate dalla cultura. Ad esempio, NN riporta un caso in cui il bot ha descritto una “festa molto rosa” come “piena di emozioni positive e buone vibrazioni”. Tuttavia, spesso inciampava in metafore non familiari o quando gli veniva chiesto di invertire le associazioni, come capire “il contrario del verde”
“ChatGPT utilizza una quantità enorme di dati linguistici per calcolare le probabilità e generare risposte molto simili a quelle umane”, ha detto Aziz-Zadeh, come riportato da NN. “Ma quello che ci interessa esplorare è se questa è o meno ancora una forma di conoscenza di seconda mano, rispetto alla conoscenza umana basata su esperienze dirette”, ha aggiunto.
Lo studio è stato una collaborazione tra neuroscienziati, informatici e artisti provenienti da istituzioni tra cui USC, Google DeepMind e UC San Diego. Man mano che l’IA si sviluppa, i ricercatori affermano che combinare l’input sensoriale con il linguaggio potrebbe aiutarla a comprendere meglio il mondo in modi simili a quelli umani.