
Quanto inquina l’IA? Alcuni prompt di chatGPT possono emettere 50 volte più emissioni rispetto ad altre richieste
Ogni volta che chiediamo qualcosa a un’intelligenza artificiale, essa risponde. Ma dietro a ogni risposta, anche quelle scorrette o non richieste, si cela un processo invisibile: la generazione e l’elaborazione di token. I token, ovvero parole o frammenti di parole convertiti in stringhe numeriche per essere interpretati dai modelli linguistici di grandi dimensioni (LLM), consumano...
Uno studio tedesco rivela che i prompt AI più elaborati, basati sul ragionamento, possono generare fino a 50 volte più CO₂ rispetto alle risposte concise
25 Giugno 2025
@Pexels
Ogni volta che chiediamo qualcosa a un’intelligenza artificiale, essa risponde. Ma dietro a ogni risposta, anche quelle scorrette o non richieste, si cela un processo invisibile: la generazione e l’elaborazione di token. I token, ovvero parole o frammenti di parole convertiti in stringhe numeriche per essere interpretati dai modelli linguistici di grandi dimensioni (LLM), consumano energia. E questo consumo comporta inevitabilmente emissioni di anidride carbonica (CO₂).
Un team di ricercatori tedeschi ha recentemente misurato e confrontato le emissioni generate da diversi LLM già addestrati, rispondendo a un set di domande standardizzate. I risultati, pubblicati sulla rivista Frontiers in Communication, sono sorprendenti: alcune tipologie di prompt, ovvero le domande o istruzioni date all’AI, possono causare fino a 50 volte più emissioni rispetto ad altre.
Secondo lo studio, condotto
LaCittaNews è un motore di ricerca di informazione in formato magazine, aggrega e rende fruibili, tramite le sue tecnologie di ricerca, in maniera automatica, gli articoli più interessanti presenti in Rete. LaCittaNews non si avvale di nessuna redazione editoriale. => DISCLAIMER