L’accesso all’IA generativa è ormai diffuso in tutto il mondo grazie a internet. I suoi contenuti sono accessibili a tutti, dai principianti ai professionisti, consentendo la creazione rapida di immagini e testi diffusi in rete istantaneamente.
Tuttavia, questa proliferazione potrebbe portare a un fenomeno preoccupante: il “modem collapse”. Diversi ricercatori stanno studiando questo processo degenerativo in cui i contenuti creati danneggiano i dataset accessibili ai futuri modelli di intelligenza artificiale, compromettendone il funzionamento e la percezione della realtà.
Le IA basano i loro risultati su dati statistici, eliminando progressivamente eventi meno probabili. Tuttavia, l’addestramento con dati errati e la produzione continua di informazioni dalle stesse macchine potrebbero portare a una disfunzione chiamata “Mad, Model Autophagy Disorder”, causando un peggioramento del linguaggio e la riproduzione di testi sempre simili, simile a una forma di “autocomplete” con soluzioni statisticamente possibili.
Questo inquinamento coinvolgerebbe non solo i testi, ma anche le immagini, rendendo le risposte prodotte visibilmente compromesse dalla presenza di rumore. Si tratta di un problema che potrebbe rendere le intelligenze artificiali sempre meno affidabili.