L’intelligenza artificiale consuma troppa energia: una svolta potrebbe cambiare tutto
Il consumo energetico dell’intelligenza artificiale è diventato un problema enorme, e non è più qualcosa che si può ignorare. Solo negli Stati Uniti, i sistemi di AI e i data center hanno utilizzato circa 415 terawattora di energia nel 2024, più del 10% della produzione elettrica totale del paese. E le proiezioni dicono che entro il 2030 questa cifra potrebbe raddoppiare. Ora, un gruppo di ricercatori della Tufts University ha sviluppato un sistema che potrebbe ridurre il fabbisogno energetico dell’AI fino a 100 volte, migliorando contemporaneamente la precisione. Sembra quasi troppo bello per essere vero, eppure i numeri parlano chiaro.
Il team guidato da Matthias Scheutz ha lavorato su un approccio chiamato AI neurosimbolica, che fonde le classiche reti neurali con il ragionamento simbolico. In pratica, invece di affidarsi solo a enormi quantità di dati e a processi per tentativi ed errori, questo sistema cerca di replicare il modo in cui le persone affrontano i problemi: scomponendoli in passaggi logici, usando regole astratte come forma, equilibrio e sequenza. I risultati della ricerca saranno presentati alla Conferenza Internazionale di Robotica e Automazione a Vienna nel maggio 2026.
Come funziona e perché i modelli tradizionali faticano
A differenza dei grandi modelli linguistici come ChatGPT o Gemini, il lavoro del team si concentra sui cosiddetti modelli VLA (visual language action), utilizzati nella robotica. Questi modelli ricevono dati visivi dalle telecamere e istruzioni dal linguaggio, poi traducono tutto in azioni fisiche: muovere un braccio robotico, ruotare le dita, impilare oggetti. Il problema è che i sistemi VLA tradizionali sono incredibilmente dispendiosi. Se un robot deve impilare dei blocchi, deve analizzare la scena, identificare ogni pezzo, capire come posizionarli. E spesso sbaglia. Le ombre possono confonderlo sulla forma di un oggetto, oppure posiziona i pezzi nel modo sbagliato facendo crollare tutto. Errori molto simili alle famose allucinazioni dei chatbot, che inventano casi legali inesistenti o generano immagini con sei dita su una mano.
Il ragionamento simbolico cambia le carte in tavola. Applicando regole strutturate, il sistema neurosimbolico riduce drasticamente i tentativi necessari per arrivare alla soluzione. Come ha spiegato Scheutz: un modello VLA tradizionale agisce su risultati statistici derivati da enormi set di addestramento, e questo porta a errori. Un VLA neurosimbolico applica regole che limitano il processo e raggiunge la soluzione molto più in fretta.
Risultati concreti e risparmio energetico impressionante
I test parlano da soli. Usando il classico rompicapo della Torre di Hanoi, il sistema neurosimbolico ha raggiunto un tasso di successo del 95%, contro il 34% dei modelli standard. Con una versione più complessa mai incontrata prima, ha comunque ottenuto il 78% di successo. I modelli tradizionali? Zero tentativi riusciti. Il tempo di addestramento è crollato: 34 minuti contro oltre un giorno e mezzo. E sul fronte energetico, l’addestramento del modello neurosimbolico ha richiesto appena l’1% dell’energia di un sistema VLA convenzionale. Durante il funzionamento, il consumo si è fermato al 5%.
Scheutz ha fatto un paragone efficace: quando qualcuno fa una ricerca su Google, il riassunto generato dall’AI in cima alla pagina consuma fino a 100 volte più energia rispetto alla generazione dei normali risultati di ricerca. Un’inefficienza che, moltiplicata per miliardi di richieste quotidiane, diventa insostenibile.
Con aziende che costruiscono data center da centinaia di megawatt, capaci di consumare quanto intere piccole città, la strada attuale basata esclusivamente su modelli linguistici e VLA rischia di non reggere a lungo. L’AI neurosimbolica offre una direzione diversa: meno forza bruta, più ragionamento strutturato. E forse è proprio quello di cui il settore ha bisogno per crescere senza divorare il pianeta.


