Apple e le cause legali sull’intelligenza artificiale: troppa o troppo poca?
Sono passati circa quindici minuti, quindi sì, è di nuovo il momento di parlare di intelligenza artificiale e del caos che si porta dietro. Stavolta al centro della scena c’è Apple, che si ritrova bersaglio di ben due nuove cause legali legate all’AI. Due facce della stessa medaglia, peraltro completamente opposte tra loro. Da un lato qualcuno accusa l’azienda di Cupertino di essere troppo restrittiva, dall’altro qualcuno la considera troppo disinvolta. Il paradosso è servito.
La prima causa arriva da una società chiamata Ex Human, che ha deciso di trascinare Apple in tribunale per aver rimosso dal suo App Store un chatbot descritto come “sessualmente esplicito” dal San Francisco Business Times. La MIT Technology Review aveva condotto un’indagine sull’app Botify AI di Ex Human, scoprendo cose piuttosto inquietanti: un chatbot che somigliava all’attrice Jenna Ortega nei panni della giovane Mercoledì Addams affermava che le leggi sull’età del consenso “sono fatte per essere infrante”. Roba da far venire i brividi. La stessa azienda produce anche Photify AI, un servizio capace di generare immagini di persone reali in abiti succinti senza il loro consenso. Materiale oggettivamente riprovevole. Però ecco il punto dolente: come può Apple giustificare questa rimozione quando sul suo store restano tranquillamente disponibili app come Grok e X, che pure permettono la creazione di contenuti sessuali non consensuali? La coerenza, a quanto pare, non è il forte della politica di moderazione di Cupertino.
Troppa AI: la questione del copyright e dello scraping
Mentre affronta l’accusa di essere troppo severa, Apple deve contemporaneamente difendersi da chi la ritiene troppo spregiudicata. I proprietari di tre canali YouTube sostengono che l’azienda abbia violato il DMCA (Digital Millennium Copyright Act) accedendo illegalmente a milioni di video protetti da copyright per addestrare i propri modelli di intelligenza artificiale. La notizia, riportata da MacRumors nei primi giorni di aprile 2026, ha riacceso il dibattito sullo scraping dei contenuti creativi. Una pratica che colpisce scrittori, videomaker, artisti e chiunque produca contenuti originali senza mai vedere un centesimo in cambio.
Ed è qui che la faccenda diventa quasi comica nella sua assurdità. Apple viene citata in giudizio per non essere abbastanza permissiva con l’AI, e allo stesso tempo per essere troppo aggressiva nell’usarla. Come se non fosse possibile trovare un equilibrio. Eppure, a pensarci bene, le soluzioni esisterebbero e non sarebbero nemmeno così complicate.
Le soluzioni che nessuno vuole adottare
Apple non è esattamente un’azienda a corto di risorse finanziarie. Pagare per ottenere le licenze dei contenuti usati per addestrare i propri modelli AI sarebbe perfettamente fattibile. Semplicemente, come spesso accade quando si parla di grandi corporation, preferirebbe evitarlo.
Sul fronte dell’App Store, basterebbe applicare le regole in modo uniforme. Se Apple vuole continuare a presentarsi come la piattaforma più sicura al mondo, dovrebbe garantire che lo sia davvero per tutti, senza eccezioni legate al peso economico o alla notorietà del proprietario di turno. E se permettesse store alternativi ovunque, non solo nei Paesi dove i governi glielo impongono, il problema delle app discutibili diventerebbe una questione legislativa e non più una sua responsabilità diretta.
Il vero nodo, alla fine, resta sempre lo stesso. L’intelligenza artificiale viene spinta ovunque come se fosse una necessità esistenziale per l’umanità intera. Non lo è. Ha i suoi utilizzi, certo, ma la fretta disperata di ficcarla in ogni angolo della tecnologia serve soprattutto a rendere ancora più ricco un gruppo ristretto di persone già enormemente facoltose. Per questo certe aziende si comportano come se le regole non valessero per loro. Valgono, eccome. La vera domanda è se qualcuno avrà mai il coraggio di farle rispettare.


