﻿<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Centaur Archivi - Tecnoapple</title>
	<atom:link href="https://tecnoapple.it/tag/centaur/feed/" rel="self" type="application/rss+xml" />
	<link>https://tecnoapple.it/tag/centaur/</link>
	<description></description>
	<lastBuildDate>Thu, 30 Apr 2026 08:23:57 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>Centaur, l&#8217;IA che sembrava pensare come un umano ma bluffava</title>
		<link>https://tecnoapple.it/centaur-lia-che-sembrava-pensare-come-un-umano-ma-bluffava/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Thu, 30 Apr 2026 08:23:57 +0000</pubDate>
				<category><![CDATA[Scienza e Tecnologia]]></category>
		<category><![CDATA[artificiale]]></category>
		<category><![CDATA[Centaur]]></category>
		<category><![CDATA[cognizione]]></category>
		<category><![CDATA[intelligenza]]></category>
		<category><![CDATA[machine-learning]]></category>
		<category><![CDATA[modello]]></category>
		<category><![CDATA[overfitting]]></category>
		<category><![CDATA[psicologia]]></category>
		<guid isPermaLink="false">https://tecnoapple.it/centaur-lia-che-sembrava-pensare-come-un-umano-ma-bluffava/</guid>

					<description><![CDATA[<p>Centaur, il modello di intelligenza artificiale che sapeva le risposte ma non capiva le domande Per anni la psicologia si è interrogata su una questione fondamentale: la mente umana può essere spiegata da una teoria unitaria, oppure funzioni come memoria, attenzione e capacità decisionale vanno...</p>
<p>L'articolo <a href="https://tecnoapple.it/centaur-lia-che-sembrava-pensare-come-un-umano-ma-bluffava/">Centaur, l&#8217;IA che sembrava pensare come un umano ma bluffava</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>Centaur, il modello di intelligenza artificiale che sapeva le risposte ma non capiva le domande</h2>
<p>Per anni la psicologia si è interrogata su una questione fondamentale: la mente umana può essere spiegata da una teoria unitaria, oppure funzioni come <strong>memoria</strong>, attenzione e capacità decisionale vanno studiate separatamente? Quando nel luglio 2025 un modello di <strong>intelligenza artificiale</strong> chiamato <strong>Centaur</strong> è stato presentato sulla rivista Nature, sembrava che la risposta potesse arrivare proprio dalla tecnologia. Centaur, costruito a partire da <strong>large language model</strong> già esistenti e addestrato con dati provenienti da esperimenti psicologici, prometteva di simulare il comportamento cognitivo umano su ben 160 compiti diversi. Processo decisionale, controllo esecutivo, funzioni cognitive complesse: il modello sembrava cavarsela benissimo un po&#8217; ovunque. La comunità scientifica ne era rimasta colpita, e qualcuno aveva iniziato a parlare di un possibile passo avanti nella costruzione di sistemi capaci di replicare il <strong>pensiero umano</strong> in senso ampio.</p>
<h2>Lo studio che mette tutto in discussione</h2>
<p>Una ricerca più recente, pubblicata su National Science Open da un gruppo di ricercatori della <strong>Zhejiang University</strong>, sta però ridimensionando parecchio quell&#8217;entusiasmo. Secondo gli autori, il successo di Centaur potrebbe essere frutto di un problema noto nel mondo del machine learning: l&#8217;<strong>overfitting</strong>. In pratica, invece di comprendere davvero i compiti assegnati, il modello avrebbe semplicemente imparato a riconoscere schemi ricorrenti nei dati di addestramento e a riprodurre le risposte attese. Per verificare questa ipotesi, i ricercatori hanno messo a punto scenari di valutazione inediti. In uno dei test più significativi, hanno sostituito le istruzioni originali delle domande a scelta multipla con una consegna semplicissima: &#8220;Scegli l&#8217;opzione A.&#8221; Se Centaur avesse davvero capito cosa gli veniva chiesto, avrebbe dovuto selezionare sempre l&#8217;opzione A. Invece ha continuato a scegliere le risposte &#8220;giuste&#8221; del dataset originale, ignorando completamente la nuova istruzione. Un comportamento che somiglia molto a quello di uno studente che prende ottimi voti perché ha memorizzato il formato degli esami, senza aver realmente compreso la materia.</p>
<h2>Perché questa scoperta conta davvero</h2>
<p>Questo risultato solleva un problema più grande, e non riguarda soltanto Centaur. La natura &#8220;scatola nera&#8221; dei large language model rende molto difficile capire come questi sistemi arrivano alle loro risposte. Possono sembrare brillanti in superficie, ma sotto possono nascondere fragilità enormi, dalle <strong>allucinazioni</strong> alle interpretazioni errate. Serve quindi un approccio più rigoroso e variegato nella valutazione delle capacità reali di questi modelli, senza lasciarsi impressionare troppo dai numeri.</p>
<p>La limitazione più profonda di Centaur, però, sembra essere proprio la <strong>comprensione del linguaggio</strong>. Il modello fatica a cogliere l&#8217;intenzione dietro una domanda, il che rappresenta forse la sfida più complessa per chi lavora allo sviluppo di intelligenza artificiale capace di simulare la cognizione umana in modo autentico. Sapere le risposte, a quanto pare, non basta. Bisogna anche capire cosa viene chiesto. E su questo fronte, la strada è ancora molto lunga.</p>
<p>L'articolo <a href="https://tecnoapple.it/centaur-lia-che-sembrava-pensare-come-un-umano-ma-bluffava/">Centaur, l&#8217;IA che sembrava pensare come un umano ma bluffava</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
