L’intelligenza artificiale risolve uno dei problemi matematici più ostici della scienza
Un gruppo di ricercatori della University of Pennsylvania ha messo a punto un nuovo metodo basato sull’intelligenza artificiale per affrontare uno dei rompicapi matematici che da decenni tiene svegli gli scienziati di mezzo mondo: le equazioni differenziali parziali inverse. Sembra roba da mal di testa, e in effetti lo è. Ma la novità è che questa volta qualcuno ha trovato una scorciatoia elegante, senza limitarsi a buttare più potenza di calcolo sul problema.
Il cuore dell’idea sta nei cosiddetti mollifier layers, strati di elaborazione ispirati a un concetto matematico degli anni Quaranta. La loro funzione? Smussare i dati rumorosi prima di analizzarli, rendendo i calcoli più stabili e molto meno esosi in termini di risorse computazionali. Una differenza enorme rispetto ai metodi tradizionali, che tendevano ad amplificare le imperfezioni a ogni passaggio, un po’ come zoomare su una linea frastagliata e ritrovarsi con un risultato sempre meno affidabile.
Perché queste equazioni contano davvero
Le equazioni differenziali parziali sono lo scheletro della modellazione scientifica. Servono a descrivere come cambiano i sistemi nel tempo e nello spazio: dal meteo alla diffusione del calore, fino all’organizzazione del DNA nelle cellule. Le versioni inverse di queste equazioni fanno qualcosa di ancora più ambizioso. Partono dai dati osservabili e risalgono alle cause nascoste. Come guardare le increspature in uno stagno e capire dove è caduto il sasso.
Il problema è che risolvere queste equazioni inverse è sempre stato un incubo computazionale. I sistemi di intelligenza artificiale tradizionali usano un processo chiamato differenziazione automatica ricorsiva, che però diventa instabile con dati complessi o imprecisi. Il team della Penn ha capito che non serviva un computer più potente, serviva una matematica migliore. E qui entrano in gioco i mollifier layers, che agiscono come un filtro intelligente prima che il sistema inizi a calcolare le variazioni nei dati.
I risultati pubblicati su Transactions on Machine Learning Research parlano chiaro: riduzione significativa del rumore e un crollo dei costi computazionali. Non è un miglioramento incrementale, è un cambio di paradigma nell’approccio al problema.
Dal DNA al meteo: applicazioni che vanno ben oltre il laboratorio
Una delle applicazioni più promettenti riguarda la cromatina, la struttura in cui il DNA si avvolge all’interno del nucleo cellulare. Questi domini misurano appena 100 nanometri, eppure determinano quali geni vengono attivati o spenti. Comprendere le reazioni epigenetiche che governano questo processo potrebbe aprire la strada a nuove terapie contro il cancro e le malattie legate all’invecchiamento.
Se fosse possibile tracciare come cambiano nel tempo i tassi di queste reazioni, si potrebbe non solo osservare la cromatina, ma anche prevedere le sue trasformazioni. E potenzialmente reindirizzare le cellule verso stati desiderati, alterando quei tassi. Un’idea che suona quasi fantascientifica, ma che ora ha una base matematica solida.
Le applicazioni dei mollifier layers, però, non si fermano alla genetica. La ricerca sui materiali, la fluidodinamica, qualsiasi campo che coinvolga equazioni complesse e dati imperfetti potrebbe beneficiare di questo approccio. L’obiettivo dichiarato dal team è tanto semplice da enunciare quanto difficile da realizzare: passare dall’osservazione dei fenomeni alla comprensione quantitativa delle regole che li generano. Perché quando si conoscono le regole di un sistema, si ha anche la possibilità di cambiarlo.


