Apple ci ha abituati a muoversi lentamente, a volte troppo lentamente, quando si tratta di intelligenza artificiale. Ma ora sembra che voglia recuperare terreno con una mossa che fa sembrare OpenAI e Google dei guardoni digitali. L’azienda di Cupertino ha annunciato, con il solito tono da “vi spieghiamo tutto ma non troppo”, un nuovo metodo per migliorare i propri modelli AI senza toccare, copiare o sbirciare i dati degli utenti. Sì, hai letto bene: nessun dato che varca il perimetro sacro del tuo iPhone o Mac.

In una mossa che sa tanto di “vedi mamma, niente mani”, Apple userà dei dataset sintetici, ovvero dati finti ma verosimili, per addestrare i suoi modelli. Come funzionerà? Il dispositivo confronterà questi dati sintetici con porzioni di email o messaggi reali, ma solo per chi ha deciso (volontariamente?) di aderire al programma Device Analytics. A quel punto, il sistema individua quale input finto somiglia di più al contenuto reale e invia ad Apple solo un segnale: niente testo, niente contenuti, solo l’informazione che dice “questo è il più simile”.

Una trovata elegante, almeno sulla carta. Perché secondo la narrazione di Apple, i dati veri non lasciano mai il dispositivo, e quindi la privacy resta inviolata. Apple raccoglierà solo le scelte più frequenti tra questi “campioni sintetici” per affinare la sua AI generativa, in particolare per funzioni come i riassunti automatici delle email. Insomma, si addestra l’AI senza mai sapere cosa c’è dentro il tuo messaggio — almeno, così dicono.

Non è solo una questione tecnica, è anche una questione di sopravvivenza. Dopo mesi di rincorsa, ritardi e imbarazzi, Apple sta cercando disperatamente di guadagnare credibilità nel campo AI. Lanci ritardati, funzioni annunciate e mai arrivate, e la sostituzione del responsabile di Siri non hanno certo aiutato a consolidare fiducia. L’upgrade a Siri promesso per l’autunno non è solo un aggiornamento, è un tentativo di rianimazione.

Il cuore di questa “rivoluzione silenziosa” è un concetto che Apple porta avanti dal 2016: differential privacy. Un nome tecnico per un trucco statistico che consiste nel mischiare informazioni vere con elementi casuali per rendere impossibile risalire all’origine. Tradotto: anche se analizzi i dati, non puoi capire da chi provengono. È come cercare di riconoscere una voce in mezzo a una folla che parla in una lingua inventata.

Apple ha già usato questo metodo per affinare le Genmoji, quelle emoji generate su misura che sembrano uscite da una serata psichedelica con Midjourney. Ora promette di fare lo stesso con il suo nuovo sistema AI in beta su iOS 18.5, iPadOS 18.5 e macOS 15.5.

Chi ci guadagna? Forse noi utenti, forse Apple, di sicuro il suo marketing. Perché mentre gli altri si difendono dalle accuse di furto di dati per addestrare i loro chatbot sempre più loquaci, Apple recita la parte del cavaliere etico: noi l’intelligenza artificiale la facciamo con dati finti, mica i tuoi.

Il punto critico? Fidarsi. Apple chiede fiducia, ancora una volta, nella sua architettura chiusa, nella sua gestione opaca del consenso, e in un sistema che non è completamente verificabile dall’esterno. Ma in un panorama dominato da Big Tech che si nutre dei nostri dati come vampiri su Tinder, forse è già qualcosa.

E mentre ci domandiamo se il metodo funzionerà davvero meglio degli approcci brutali di Meta o Google, una cosa è certa: Apple ha trovato il modo di raccontare la solita vecchia storia del controllo totale, ma in chiave “pro privacy”. La differenza, stavolta, è tutta nella narrazione.