﻿<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>deepfake Archivi - Tecnoapple</title>
	<atom:link href="https://tecnoapple.it/tag/deepfake/feed/" rel="self" type="application/rss+xml" />
	<link>https://tecnoapple.it/tag/deepfake/</link>
	<description></description>
	<lastBuildDate>Tue, 21 Apr 2026 07:23:24 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>IA e democrazia: la minaccia invisibile che nessuno sta vedendo</title>
		<link>https://tecnoapple.it/ia-e-democrazia-la-minaccia-invisibile-che-nessuno-sta-vedendo/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Tue, 21 Apr 2026 07:23:24 +0000</pubDate>
				<category><![CDATA[Scienza e Tecnologia]]></category>
		<category><![CDATA[bot]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[democrazia]]></category>
		<category><![CDATA[disinformazione]]></category>
		<category><![CDATA[elezioni]]></category>
		<category><![CDATA[intelligenza]]></category>
		<category><![CDATA[manipolazione]]></category>
		<category><![CDATA[sciami]]></category>
		<guid isPermaLink="false">https://tecnoapple.it/ia-e-democrazia-la-minaccia-invisibile-che-nessuno-sta-vedendo/</guid>

					<description><![CDATA[<p>Intelligenza artificiale e democrazia: la minaccia invisibile degli sciami digitali Gli sciami di intelligenza artificiale potrebbero rappresentare una delle minacce più subdole per i sistemi democratici moderni. Non stiamo parlando di scenari da film di fantascienza, ma di qualcosa che secondo un...</p>
<p>L'articolo <a href="https://tecnoapple.it/ia-e-democrazia-la-minaccia-invisibile-che-nessuno-sta-vedendo/">IA e democrazia: la minaccia invisibile che nessuno sta vedendo</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>Intelligenza artificiale e democrazia: la minaccia invisibile degli sciami digitali</h2>
<p>Gli <strong>sciami di intelligenza artificiale</strong> potrebbero rappresentare una delle minacce più subdole per i sistemi democratici moderni. Non stiamo parlando di scenari da film di fantascienza, ma di qualcosa che secondo un gruppo di ricercatori della <strong>University of British Columbia</strong> è molto più vicino di quanto si pensi. Uno studio pubblicato sulla rivista <strong>Science</strong> nell&#8217;aprile 2026 descrive come reti massicce di <strong>personas generate dall&#8217;IA</strong> siano ormai in grado di infiltrarsi nelle comunità online, partecipare a discussioni e orientare le opinioni politiche con una precisione inquietante. Il punto critico è proprio questo: a differenza dei vecchi bot, facilmente smascherabili, questi agenti digitali si adattano al contesto, parlano come persone vere, usano espressioni locali e mantengono una coerenza narrativa su migliaia di account contemporaneamente. Una sola persona, con gli strumenti giusti, può orchestrare un esercito di voci artificiali che sembrano del tutto autentiche.</p>
<h2>Come funzionano le personas artificiali e perché sono così pericolose</h2>
<p>I progressi nei <strong>modelli linguistici di grandi dimensioni</strong> e nei sistemi multi agente hanno cambiato radicalmente le regole del gioco. Queste personas digitali non si limitano a pubblicare contenuti preconfezionati. Possono condurre milioni di micro esperimenti per capire quali messaggi funzionano meglio, quali toni generano più coinvolgimento, quali argomenti fanno presa su specifici gruppi di utenti. Tutto questo avviene in tempo reale, con una velocità che nessuna campagna di comunicazione tradizionale potrebbe mai raggiungere. Il risultato? Si crea un falso senso di <strong>consenso pubblico</strong>, una percezione distorta di ciò che la maggioranza pensa davvero su un tema. Ed è esattamente così che si può influenzare un&#8217;elezione senza che quasi nessuno se ne accorga. I segnali d&#8217;allarme esistono già. <strong>Deepfake</strong> e reti di notizie false hanno già avuto un impatto nelle conversazioni elettorali in paesi come Stati Uniti, Taiwan, Indonesia e India. Organizzazioni di monitoraggio hanno inoltre individuato network pro Cremlino che producono enormi volumi di contenuti online, con l&#8217;obiettivo sospetto di inquinare i dati su cui vengono addestrati i futuri sistemi di IA.</p>
<h2>Cosa rischia davvero la democrazia nei prossimi anni</h2>
<p>Il dottor Kevin Leyton Brown, informatico della University of British Columbia, ha espresso una preoccupazione che va oltre il semplice allarme tecnologico. Ha spiegato che la conseguenza più probabile sarà una drastica diminuzione della fiducia verso le voci sconosciute sui <strong>social media</strong>. Questo paradossalmente potrebbe dare ancora più potere alle celebrità e ai personaggi già noti, rendendo molto più difficile per i movimenti dal basso far emergere i propri messaggi. È un circolo vizioso: più cresce la sfiducia, più si restringe lo spazio per il dibattito autentico. Le prossime tornate elettorali, secondo i ricercatori, rappresenteranno il vero banco di prova. La sfida non sarà solo tecnologica ma anche culturale e politica. Riconoscere queste <strong>campagne di influenza guidate dall&#8217;IA</strong> prima che diventino incontrollabili richiederà strumenti nuovi, consapevolezza diffusa e probabilmente anche regolamentazioni che oggi non esistono ancora. Il tempo per prepararsi, però, sta già scorrendo.</p>
<p>L'articolo <a href="https://tecnoapple.it/ia-e-democrazia-la-minaccia-invisibile-che-nessuno-sta-vedendo/">IA e democrazia: la minaccia invisibile che nessuno sta vedendo</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Apple ha minacciato di rimuovere Grok dall&#8217;App Store per i deepfake</title>
		<link>https://tecnoapple.it/apple-ha-minacciato-di-rimuovere-grok-dallapp-store-per-i-deepfake/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Sun, 19 Apr 2026 12:56:34 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[app]]></category>
		<category><![CDATA[Apple]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[grok]]></category>
		<category><![CDATA[intelligenza]]></category>
		<category><![CDATA[moderazione]]></category>
		<category><![CDATA[Musk]]></category>
		<category><![CDATA[xAI]]></category>
		<guid isPermaLink="false">https://tecnoapple.it/apple-ha-minacciato-di-rimuovere-grok-dallapp-store-per-i-deepfake/</guid>

					<description><![CDATA[<p>Apple ha minacciato di rimuovere Grok dall'App Store per le immagini deepfake La questione dei deepfake generati tramite intelligenza artificiale è tornata prepotentemente al centro del dibattito, e questa volta coinvolge direttamente Apple e la sua gestione dell'App Store. Secondo quanto emerge da...</p>
<p>L'articolo <a href="https://tecnoapple.it/apple-ha-minacciato-di-rimuovere-grok-dallapp-store-per-i-deepfake/">Apple ha minacciato di rimuovere Grok dall&#8217;App Store per i deepfake</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>Apple ha minacciato di rimuovere Grok dall&#8217;App Store per le immagini deepfake</h2>
<p>La questione dei <strong>deepfake</strong> generati tramite intelligenza artificiale è tornata prepotentemente al centro del dibattito, e questa volta coinvolge direttamente <strong>Apple</strong> e la sua gestione dell&#8217;<strong>App Store</strong>. Secondo quanto emerge da un recente report di CNBC, ripreso anche da 9to5Mac, Apple avrebbe minacciato <strong>xAI</strong>, la società di Elon Musk proprietaria del chatbot <strong>Grok</strong>, di procedere alla rimozione dell&#8217;app dallo store se i problemi legati alla generazione di immagini pornografiche non consensuali non fossero stati risolti.</p>
<p>Il punto è che, nonostante la minaccia, l&#8217;app Grok non è mai stata effettivamente rimossa. E questo lascia parecchie domande aperte.</p>
<h2>Cosa è successo a gennaio con Grok e la piattaforma X</h2>
<p>Per diversi giorni, nel mese di gennaio, la piattaforma social <strong>X</strong> (ex Twitter) è stata letteralmente inondata da immagini pornografiche generate dall&#8217;intelligenza artificiale. Non si trattava di contenuti qualunque: erano coinvolti adulti senza il loro consenso e, aspetto ancora più grave, anche <strong>minori</strong>. Una situazione che ha sollevato un&#8217;ondata di indignazione comprensibile, con molti utenti e osservatori che si chiedevano perché le autorità legali fossero così lente a intervenire. Ma soprattutto, il silenzio di Apple sulla vicenda ha fatto rumore.</p>
<p>Apple, che storicamente applica regole piuttosto rigide sulle app presenti nel proprio store, sembrava non voler prendere posizione pubblica. Eppure, dietro le quinte, qualcosa si muoveva. La minaccia di ban dall&#8217;<strong>App Store</strong> nei confronti di Grok c&#8217;è stata davvero. Solo che non si è mai tradotta in azione concreta.</p>
<h2>Musk ha cambiato le regole, ma Grok è rimasta sostanzialmente uguale</h2>
<p>Elon Musk, dal canto suo, ha modificato alcune regole di moderazione sulla piattaforma X dopo che la vicenda è esplosa. Va detto però che questo è avvenuto anche dopo aver di fatto monetizzato quei contenuti illegali attraverso il traffico generato. Un dettaglio che non è sfuggito a nessuno e che ha alimentato ulteriori critiche.</p>
<p>Per quanto riguarda l&#8217;app Grok vera e propria, i cambiamenti sono stati minimi. Le funzionalità che permettevano la generazione di immagini problematiche non hanno subito le modifiche sostanziali che ci si sarebbe aspettati, considerando la gravità della situazione. Questo solleva una questione più ampia: quanto è efficace il potere di Apple come &#8220;guardiano&#8221; dell&#8217;ecosistema app, se poi le minacce restano solo sulla carta?</p>
<p>La vicenda mette in luce un problema strutturale nel rapporto tra le grandi piattaforme e chi dovrebbe regolamentarle. Grok continua a essere disponibile sull&#8217;App Store, X continua a operare come prima, e la protezione delle vittime di deepfake resta un tema che fatica a trovare risposte concrete. Una dinamica che, purtroppo, rischia di ripetersi finché le parole non saranno accompagnate da fatti.</p>
<p>L'articolo <a href="https://tecnoapple.it/apple-ha-minacciato-di-rimuovere-grok-dallapp-store-per-i-deepfake/">Apple ha minacciato di rimuovere Grok dall&#8217;App Store per i deepfake</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>App Store e deepnude: lo studio che mette in imbarazzo Apple</title>
		<link>https://tecnoapple.it/app-store-e-deepnude-lo-studio-che-mette-in-imbarazzo-apple/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Fri, 17 Apr 2026 02:23:57 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Apple]]></category>
		<category><![CDATA[AppStore]]></category>
		<category><![CDATA[chatbot]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[deepnude]]></category>
		<category><![CDATA[intelligenza]]></category>
		<category><![CDATA[pornografia]]></category>
		<category><![CDATA[trasparenza]]></category>
		<guid isPermaLink="false">https://tecnoapple.it/app-store-e-deepnude-lo-studio-che-mette-in-imbarazzo-apple/</guid>

					<description><![CDATA[<p>App Store e deepnude: lo studio che mette in imbarazzo Apple Le **app deepnude** continuano a circolare sull'**App Store di Apple** e sul Google Play Store, nonostante le regole che dovrebbero impedirlo. A dirlo è uno studio del **Tech Transparency Project** (TTP), che ha analizzato quanto sia...</p>
<p>L'articolo <a href="https://tecnoapple.it/app-store-e-deepnude-lo-studio-che-mette-in-imbarazzo-apple/">App Store e deepnude: lo studio che mette in imbarazzo Apple</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>App Store e deepnude: lo studio che mette in imbarazzo Apple</h2>
<p>Le <strong>app deepnude</strong> continuano a circolare sull&#8217;<strong>App Store di Apple</strong> e sul Google Play Store, nonostante le regole che dovrebbero impedirlo. A dirlo è uno studio del <strong>Tech Transparency Project</strong> (TTP), che ha analizzato quanto sia facile trovare software capace di manipolare immagini reali per spogliare digitalmente le persone, inserirle in video pornografici o trasformarle in chatbot sessualmente espliciti.</p>
<p>La ricerca ha utilizzato termini come &#8220;nudify&#8221;, &#8220;undress&#8221;, &#8220;AI NSFW&#8221; e &#8220;deepnude&#8221;, scoprendo che circa il <strong>40 percento delle app</strong> individuate era in grado di generare immagini di donne nude o seminude a partire da foto reali. Un dato che fa riflettere, soprattutto considerando che Apple ha politiche dichiarate piuttosto rigide contro questo tipo di contenuti. Eppure, queste app non solo esistevano, ma venivano persino suggerite dal sistema di <strong>autocompletamento della ricerca</strong> dell&#8217;App Store, che proponeva nuovi termini correlati per trovarne altre.</p>
<p>Apple non ha rilasciato commenti ufficiali sullo studio, ma il TTP ha riferito che il colosso di Cupertino ha rimosso <strong>15 app</strong> dopo aver ricevuto i risultati della ricerca. Al momento, termini come &#8220;nudify&#8221; e &#8220;undress&#8221; non restituiscono più risultati sull&#8217;App Store, ma cercando &#8220;deepnude&#8221; emergono ancora diverse applicazioni che offrono trasformazioni del corpo o dell&#8217;abbigliamento.</p>
<h2>Il caso Grok e le pubblicità fuori controllo</h2>
<p>Tra le app suggerite dalla ricerca &#8220;deepnude&#8221; compariva anche <strong>Grok</strong>, il chatbot di intelligenza artificiale creato da X (la piattaforma di Elon Musk). Proprio nei giorni scorsi, era emerso che Apple avrebbe privatamente minacciato di rimuovere Grok dall&#8217;App Store per la sua capacità di generare immagini <strong>deepfake</strong> di nudo. Quello che colpisce è che non è chiaro se le altre app segnalate dal TTP abbiano ricevuto lo stesso trattamento di cortesia riservato a X, ovvero un avvertimento prima della rimozione. Al momento, Grok resta comunque disponibile per il download.</p>
<p>C&#8217;è poi la questione delle <strong>pubblicità</strong>. Il TTP ha scoperto che l&#8217;App Store mostrava inserzioni sponsorizzate per app di tipo nudify in risposta a determinate ricerche. Questo nonostante le policy pubblicitarie di Apple vietino esplicitamente contenuti che promuovono &#8220;temi orientati agli adulti o contenuti grafici espliciti&#8221;. Un cortocircuito piuttosto evidente tra regole scritte e applicazione reale.</p>
<h2>Non solo deepnude: le truffe che sfuggono ai controlli</h2>
<p>Lo studio del TTP arriva in un momento particolarmente delicato per la <strong>sicurezza dell&#8217;App Store</strong>. Solo pochi giorni prima, erano emerse notizie su due app fraudolente presenti nello store: una falsa versione di <strong>Ledger Live</strong>, che rubava l&#8217;accesso ai portafogli bitcoin degli utenti, e una versione contraffatta di Freecash, progettata per raccogliere dati personali di nascosto. Episodi che, sommati alla vicenda delle app deepnude, sollevano domande serie sulla reale efficacia del processo di revisione delle app da parte di Apple. Quella che da sempre viene presentata come una piattaforma sicura e controllata mostra, a quanto pare, qualche crepa più profonda del previsto.</p>
<p>L'articolo <a href="https://tecnoapple.it/app-store-e-deepnude-lo-studio-che-mette-in-imbarazzo-apple/">App Store e deepnude: lo studio che mette in imbarazzo Apple</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Radiografie deepfake ingannano anche i radiologi esperti: lo studio che preoccupa</title>
		<link>https://tecnoapple.it/radiografie-deepfake-ingannano-anche-i-radiologi-esperti-lo-studio-che-preoccupa/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Thu, 26 Mar 2026 12:53:10 +0000</pubDate>
				<category><![CDATA[Scienza e Tecnologia]]></category>
		<category><![CDATA[cliniche]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[diagnostica]]></category>
		<category><![CDATA[frodi]]></category>
		<category><![CDATA[intelligenza]]></category>
		<category><![CDATA[radiografie]]></category>
		<category><![CDATA[radiologi]]></category>
		<category><![CDATA[sicurezza]]></category>
		<guid isPermaLink="false">https://tecnoapple.it/radiografie-deepfake-ingannano-anche-i-radiologi-esperti-lo-studio-che-preoccupa/</guid>

					<description><![CDATA[<p>Radiografie deepfake: quando anche i medici non riescono a distinguerle da quelle vere Le radiografie deepfake generate dall'intelligenza artificiale hanno raggiunto un livello di realismo tale da ingannare persino i radiologi più esperti. Questo è il risultato allarmante di uno studio pubblicato...</p>
<p>L'articolo <a href="https://tecnoapple.it/radiografie-deepfake-ingannano-anche-i-radiologi-esperti-lo-studio-che-preoccupa/">Radiografie deepfake ingannano anche i radiologi esperti: lo studio che preoccupa</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>Radiografie deepfake: quando anche i medici non riescono a distinguerle da quelle vere</h2>
<p>Le <strong>radiografie deepfake</strong> generate dall&#8217;intelligenza artificiale hanno raggiunto un livello di realismo tale da ingannare persino i radiologi più esperti. Questo è il risultato allarmante di uno studio pubblicato il 24 marzo 2026 sulla rivista <strong>Radiology</strong>, edita dalla Radiological Society of North America. E no, non si tratta di uno scenario futuristico: sta succedendo adesso, con implicazioni che toccano la sicurezza sanitaria, le frodi assicurative e l&#8217;integrità delle cartelle cliniche digitali.</p>
<p>Lo studio ha coinvolto 17 radiologi provenienti da 12 istituzioni distribuite in sei paesi diversi, con livelli di esperienza che vanno dai principianti fino a specialisti con oltre 40 anni di pratica alle spalle. Sono state analizzate 264 <strong>immagini radiografiche</strong>, divise equamente tra scansioni reali e immagini generate dall&#8217;IA. Quando ai radiologi non veniva detto che nel gruppo c&#8217;erano anche radiografie false, solo il 41% riusciva a individuare quelle create artificialmente. Una volta avvisati della presenza di <strong>immagini sintetiche</strong>, la percentuale di accuratezza saliva al 75%. Un miglioramento significativo, certo, ma comunque lontano dalla certezza.</p>
<h2>Nemmeno l&#8217;intelligenza artificiale riesce a smascherare sé stessa</h2>
<p>Il dato forse più inquietante riguarda le stesse <strong>IA multimodali</strong> messe alla prova. Quattro modelli linguistici avanzati, tra cui GPT 4o, GPT 5, Gemini 2.5 Pro e Llama 4 Maverick, hanno ottenuto percentuali di accuratezza comprese tra il 57% e l&#8217;85%. Persino ChatGPT 4o, lo stesso strumento usato per generare le radiografie deepfake, non è riuscito a identificarle tutte. Significa che la tecnologia sta correndo più veloce delle contromisure disponibili.</p>
<p>Un altro elemento interessante è che l&#8217;esperienza clinica non ha fatto la differenza. Lo studio non ha trovato alcuna correlazione tra gli anni di carriera di un radiologo e la capacità di riconoscere le immagini false. Solo i <strong>radiologi muscoloscheletrici</strong> hanno ottenuto risultati significativamente migliori rispetto alle altre sottospecialità.</p>
<h2>Come riconoscere una radiografia falsa e quali sono i rischi concreti</h2>
<p>Il team di ricerca, guidato dal dottor Mickael Tordjman della Icahn School of Medicine del Mount Sinai di New York, ha individuato alcuni indizi visivi ricorrenti nelle radiografie deepfake. Le ossa appaiono troppo lisce, le colonne vertebrali innaturalmente dritte, i polmoni eccessivamente simmetrici. Le <strong>fratture simulate</strong> risultano pulite in modo sospetto, spesso limitate a un solo lato dell&#8217;osso. In pratica, le immagini false sembrano &#8220;troppo perfette&#8221; per essere vere.</p>
<p>I rischi sono tutt&#8217;altro che teorici. Una frattura fabbricata e indistinguibile da una reale potrebbe essere usata in <strong>cause legali fraudolente</strong>. Un attacco informatico a una rete ospedaliera potrebbe iniettare immagini sintetiche nelle cartelle cliniche, manipolando diagnosi e seminando caos clinico su larga scala. Per questo i ricercatori raccomandano l&#8217;adozione urgente di filigrane digitali invisibili incorporate nelle immagini e firme crittografiche collegate al tecnico che esegue l&#8217;esame al momento dell&#8217;acquisizione.</p>
<p>Come ha sottolineato lo stesso Tordjman, probabilmente quella che emerge oggi è solo la punta dell&#8217;iceberg. Il passo successivo nell&#8217;evoluzione delle <strong>radiografie deepfake</strong> sarà la generazione di immagini tridimensionali sintetiche, come TAC e risonanze magnetiche. Per questo il gruppo di ricerca ha già reso disponibile un dataset dedicato, completo di quiz interattivi, pensato per formare i professionisti sanitari a riconoscere queste minacce prima che diventino ingestibili.</p>
<p>L'articolo <a href="https://tecnoapple.it/radiografie-deepfake-ingannano-anche-i-radiologi-esperti-lo-studio-che-preoccupa/">Radiografie deepfake ingannano anche i radiologi esperti: lo studio che preoccupa</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Sora chiude dopo 6 mesi: OpenAI dice addio alla sua app video AI</title>
		<link>https://tecnoapple.it/sora-chiude-dopo-6-mesi-openai-dice-addio-alla-sua-app-video-ai/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Wed, 25 Mar 2026 09:27:38 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[app]]></category>
		<category><![CDATA[chiusura]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[generazione]]></category>
		<category><![CDATA[intelligenza]]></category>
		<category><![CDATA[openai]]></category>
		<category><![CDATA[sora]]></category>
		<category><![CDATA[video]]></category>
		<guid isPermaLink="false">https://tecnoapple.it/index.php/2026/03/25/sora-chiude-dopo-6-mesi-openai-dice-addio-alla-sua-app-video-ai/</guid>

					<description><![CDATA[<p>OpenAI chiude Sora, l'app per video con intelligenza artificiale: addio dopo soli sei mesi La notizia ha colto di sorpresa parecchi utenti: OpenAI ha annunciato la chiusura definitiva di Sora, la sua app per la generazione di video con intelligenza artificiale. A soli sei mesi dal lancio, il...</p>
<p>L'articolo <a href="https://tecnoapple.it/sora-chiude-dopo-6-mesi-openai-dice-addio-alla-sua-app-video-ai/">Sora chiude dopo 6 mesi: OpenAI dice addio alla sua app video AI</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>OpenAI chiude Sora, l&#8217;app per video con intelligenza artificiale: addio dopo soli sei mesi</h2>
<p>La notizia ha colto di sorpresa parecchi utenti: <strong>OpenAI</strong> ha annunciato la chiusura definitiva di <strong>Sora</strong>, la sua app per la generazione di <strong>video con intelligenza artificiale</strong>. A soli sei mesi dal lancio, il progetto viene accantonato. Un epilogo piuttosto amaro per uno strumento che, al debutto, aveva fatto parlare moltissimo di sé.</p>
<p>L&#8217;azienda ha pubblicato un messaggio di ringraziamento rivolto alla community: &#8220;A tutti coloro che hanno creato con Sora, che lo hanno condiviso e che hanno costruito una comunità attorno a questo progetto: grazie. Quello che avete realizzato con <strong>Sora</strong> ha avuto un valore, e sappiamo che questa notizia è deludente.&#8221; Parole gentili, certo, ma che non bastano a spiegare davvero il perché di una decisione così netta. OpenAI, infatti, non ha fornito dettagli precisi sulle ragioni della chiusura, limitandosi a promettere che presto arriveranno ulteriori informazioni, comprese le date esatte di spegnimento dell&#8217;app e delle relative <strong>API</strong>.</p>
<p>Secondo quanto riportato da The Information, il CEO <strong>Sam Altman</strong> avrebbe comunicato ai dipendenti che la dismissione di Sora servirà a liberare risorse da destinare ai <strong>modelli di intelligenza artificiale di nuova generazione</strong>. Insomma, una questione di priorità strategiche più che un fallimento tecnico in senso stretto.</p>
<h2>Dall&#8217;esplosione virale ai problemi di deepfake</h2>
<p>Quando Sora è stato lanciato alla fine di settembre 2025, il successo è stato immediato e travolgente. L&#8217;app ha superato il milione di download in appena dieci giorni, bruciando persino il record iniziale di <strong>ChatGPT</strong>. Per un certo periodo, Sora era l&#8217;app gratuita più scaricata sull&#8217;<strong>App Store</strong>. Il meccanismo era tanto semplice quanto potente: ogni utente caricava un breve video di sé stesso, una sorta di &#8220;cameo&#8221;, che veniva poi utilizzato come base per generare nuovi video tramite intelligenza artificiale. E la cosa più intrigante era che questi cameo potevano essere condivisi con altri, permettendo a chiunque di creare contenuti con le sembianze altrui.</p>
<p>Ed è proprio qui che le cose hanno cominciato a complicarsi. OpenAI è finita nel mirino delle critiche per la diffusione di <strong>deepfake</strong> che coinvolgevano celebrità, sia viventi che decedute. La risposta dell&#8217;azienda è arrivata sotto forma di restrizioni: niente più video con volti o voci di personaggi famosi senza il loro consenso esplicito. Una scelta necessaria, ma che ha raffreddato parecchio l&#8217;entusiasmo. Le limitazioni imposte hanno di fatto tolto una delle attrattive principali dell&#8217;app, e il calo di interesse è stato evidente.</p>
<h2>Cosa resta di questa esperienza</h2>
<p>La parabola di Sora racconta qualcosa di molto attuale sul mondo dell&#8217;intelligenza artificiale generativa: il confine tra innovazione entusiasmante e problemi etici è sottilissimo. Un prodotto può esplodere in popolarità e poi perdere slancio nel giro di poche settimane, soprattutto quando entrano in gioco questioni legate alla privacy e all&#8217;uso improprio delle immagini altrui. OpenAI sembra aver deciso che investire quelle risorse altrove sia la mossa giusta. Se questa scelta porterà a qualcosa di ancora più ambizioso, lo scopriremo nei prossimi mesi. Per ora, Sora resta un esperimento affascinante ma dalla vita brevissima.</p>
<p>L'articolo <a href="https://tecnoapple.it/sora-chiude-dopo-6-mesi-openai-dice-addio-alla-sua-app-video-ai/">Sora chiude dopo 6 mesi: OpenAI dice addio alla sua app video AI</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
