Quale IA è più Verde? Lo Studio Rivela Differenze nelle Emissioni

Image by Emiliano Vittoriosi, from Unsplash

Quale IA è più Verde? Lo Studio Rivela Differenze nelle Emissioni

Tempo di lettura: 4 Min.

Una nuova ricerca mostra come i modelli avanzati di intelligenza artificiale, che utilizziamo quotidianamente nella nostra vita, stanno generando un impatto ambientale significativo.

Sei di fretta? Ecco i fatti essenziali:

  • I modelli avanzati di intelligenza artificiale emettono fino a 50 volte più CO₂ rispetto a quelli più semplici.
  • Le intelligenze artificiali ragionanti come o3 e R1 utilizzano più energia per risposte più lunghe.
  • Le interrogazioni basate sulla logica, come matematica o filosofia, aumentano notevolmente le emissioni.

I grandi modelli linguistici (LLM) progettati per un ragionamento profondo – come l’o3 di OpenAI, il Claude di Anthropic e l’R1 di DeepSeek – producono 50 volte più emissioni di anidride carbonica rispetto ai modelli di intelligenza artificiale base, quando rispondono a domande identiche.

“L’impatto ambientale nel mettere in discussione i LLM addestrati è fortemente determinato dal loro approccio al ragionamento”, ha detto Maximilian Dauner, autore principale dello studio pubblicato il 19 giugno su Frontiers in Communication. “Abbiamo scoperto che i modelli abilitati al ragionamento producono fino a 50 volte più emissioni di CO₂ rispetto ai modelli di risposta concisi”, ha aggiunto.

La ricerca riporta come queste emissioni derivino dalla grande potenza di calcolo necessaria per elaborare interrogazioni avanzate, come domande relative a aree ricche di logica come l’algebra e la filosofia.

I ricercatori spiegano come questi modelli di ragionamento utilizzino un metodo chiamato “catena di pensiero“, dove l’IA scompone un problema in passaggi logici, che riflette gli approcci umani alla risoluzione dei problemi. Più token durante il processo generano risposte più lunghe, che a loro volta consumano energia aggiuntiva.

I ricercatori hanno condotto la loro analisi eseguendo 1.000 domande attraverso 14 modelli LLM. Hanno determinato il consumo energetico utilizzando una GPU NVIDIA A100 e supponendo che ogni chilowattora producesse 480 grammi di CO₂.

L’analisi ha dimostrato che, in media, i modelli di ragionamento producono 543,5 token come output in ogni risposta, mentre i modelli più semplici generano solo 37,7 token. Il modello più accurato, Deep Cogito (con 72 miliardi di parametri), aveva anche una delle impronte di carbonio più grandi.

“Attualmente, vediamo un chiaro compromesso tra precisione e sostenibilità intrinseco nelle tecnologie LLM,” ha spiegato Dauner. “Nessuno dei modelli che ha mantenuto le emissioni sotto i 500 grammi di CO₂ equivalente ha raggiunto una precisione superiore all’80%,” ha aggiunto.

Ad esempio, rispondere a 60.000 domande con il modello R1 di DeepSeek produrrebbe la stessa quantità di CO₂ di un volo andata e ritorno tra New York e Londra. Nel frattempo, il modello Qwen 2.5 di Alibaba Cloud potrebbe fornire una precisione simile con un terzo delle emissioni.

Non si tratta solo di emissioni per prompt, dicono i ricercatori che la preoccupazione più ampia riguarda la scala. Una singola domanda potrebbe rilasciare solo pochi grammi di CO₂, ma moltiplicando ciò per miliardi di utenti, l’impronta diventa massiccia.

The New York Times riporta che un rapporto del 2024 del Dipartimento dell’Energia degli Stati Uniti ha previsto che i data center consumeranno fino al 12% della fornitura elettrica nazionale entro il 2028, il che rappresenta un triplo aumento rispetto ai livelli del 2022, dove l’IA è un fattore trainante.

Quindi, cosa possono fare gli utenti?

“Usa l’IA quando ha senso usarla. Non usare l’IA per tutto”, ha detto la professoressa di informatica Gudrun Socher, come riportato da The Washington Post. Per domande di base, i motori di ricerca sono solitamente più veloci e utilizzano molta meno energia. Una ricerca Google utilizza circa 10 volte meno energia rispetto a un prompt di ChatGPT, secondo quanto riportato da Goldman Sachs.

Dauner è d’accordo. “Se gli utenti conoscono il preciso costo in CO₂ delle loro produzioni generate dall’IA, come trasformarsi casualmente in una action figure, potrebbero essere più selettivi e riflessivi su quando e come usare queste tecnologie.”

Gli esperti sottolineano l’importanza di scegliere modelli più piccoli per compiti semplici e di utilizzare quelli più lunghi e potenti solo quando necessario. Mantenere brevi i suggerimenti e le risposte aiuta anche a ridurre il consumo energetico. Alla fine, la scelta non riguarda solo la velocità o l’accuratezza, ma anche la responsabilità.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!