Quando il linguaggio umanizza l’intelligenza artificiale: uno studio svela come le parole plasmano la percezione
Parlare di intelligenza artificiale usando verbi come “pensa”, “capisce” o “sa” sembra del tutto innocuo. Eppure, secondo una ricerca della Iowa State University pubblicata nell’aprile 2026, questo tipo di linguaggio può alterare in modo sottile ma significativo la percezione che le persone hanno di queste tecnologie. Lo studio, intitolato “Anthropomorphizing Artificial Intelligence: A Corpus Study of Mental Verbs Used with AI and ChatGPT” e pubblicato su Technical Communication Quarterly, ha analizzato quanto spesso i giornalisti ricorrono a espressioni che attribuiscono qualità umane a sistemi che, nella sostanza, non possiedono né coscienza né intenzioni.
Il punto è piuttosto semplice, se ci si ferma a ragionarlo. Quando qualcuno scrive che “ChatGPT sa come rispondere” oppure che “l’intelligenza artificiale ha deciso di fare una cosa”, sta involontariamente suggerendo che dietro ci sia una forma di pensiero autonomo. E non è così. Questi sistemi producono risposte analizzando enormi quantità di dati, riconoscendo schemi e pattern, senza alcuna forma di consapevolezza. Come ha spiegato Jo Mackiewicz, professoressa di Inglese alla Iowa State, i verbi mentali fanno parte del linguaggio quotidiano, ed è naturale usarli anche quando si parla di macchine. Ma il rischio concreto è quello di confondere i confini tra ciò che può fare un essere umano e ciò che fa un algoritmo.
I giornalisti sono più attenti di quanto si pensi
Una delle scoperte più interessanti dello studio riguarda proprio il mondo dell’informazione. Il gruppo di ricerca, che includeva anche Matthew J. Baker della Brigham Young University e Jordan Smith della University of Northern Colorado, ha analizzato il corpus News on the Web (NOW), un database con oltre 20 miliardi di parole provenienti da articoli giornalistici in lingua inglese pubblicati in 20 paesi. L’obiettivo era capire con quale frequenza i giornalisti associano verbi mentali a termini come intelligenza artificiale e ChatGPT.
Il risultato ha sorpreso un po’ tutti. L’antropomorfizzazione nei testi giornalistici è decisamente meno diffusa di quanto ci si aspetterebbe. La parola “needs” (necessita) è risultata la più frequente in associazione con l’intelligenza artificiale, comparendo 661 volte, mentre per ChatGPT il verbo più usato è stato “knows” (sa), ma con appena 32 occorrenze. Numeri bassi, considerata la mole del corpus analizzato. Secondo le ricercatrici, le linee guida editoriali come quelle dell’Associated Press, che sconsigliano di attribuire emozioni o tratti umani alle macchine, potrebbero avere un ruolo importante nel contenere questo fenomeno.
Il contesto conta più delle singole parole
C’è un altro aspetto che merita attenzione. Anche quando i verbi mentali vengono usati, non sempre il risultato è realmente antropomorfico. Frasi come “l’intelligenza artificiale necessita di grandi quantità di dati” non implicano che il sistema abbia desideri o bisogni. È un po’ come dire che una macchina ha bisogno di benzina: nessuno penserebbe che l’auto provi fame. Diverso il caso di espressioni come “l’intelligenza artificiale deve comprendere il mondo reale”, che iniziano a evocare capacità tipicamente umane come il ragionamento etico o la consapevolezza.
Come ha sottolineato Jeanine Aune, co-autrice dello studio, l’antropomorfizzazione non è un fenomeno binario. Esiste su uno spettro, con gradazioni che vanno dal del tutto neutro al potenzialmente fuorviante. E questo è il punto chiave: non basta contare le parole per capire l’impatto del linguaggio. Serve analizzare il contesto.
Il messaggio che emerge da questa ricerca è che le scelte linguistiche nel parlare di intelligenza artificiale hanno conseguenze reali sulla percezione pubblica. Ogni volta che si attribuisce un’intenzione a un sistema che non ne possiede, si rischia di oscurare la responsabilità degli esseri umani che lo hanno progettato, sviluppato e messo in circolazione. Un dettaglio che, nel dibattito sempre più acceso su queste tecnologie, non andrebbe mai dimenticato.


