In un documento tecnico recentemente pubblicato, Apple ha aperto il suo “cuore”, rivelando i dettagli sui modelli sviluppati per alimentare Apple Intelligence, la nuova gamma di funzioni di AI generativa in arrivo su iOS, macOS e iPadOS.
A proposito, Apple ha appena rilasciato le versioni beta per sviluppatori di iOS 18.1, iPadOS 18.1 e macOS Sequoia 15.1.
Addestramento etico: la risposta di Apple alle accuse
Nel documento, Apple respinge con fermezza le accuse di aver adottato un approccio eticamente discutibile per l’addestramento dei suoi modelli. L’azienda ribadisce di non aver utilizzato dati privati degli utenti, ma di aver attinto a una combinazione di dati pubblici e su licenza per addestrare Apple Intelligence. Questo approccio, secondo Apple, dimostra la sua attenzione al rispetto della privacy degli utenti.
I modelli AFM: il cuore pulsante di Apple Intelligence
Al centro dell’innovazione di Apple ci sono i modelli AFM (Apple Foundation Models), svelati per la prima volta alla WWDC 2024. Questi modelli sono stati addestrati su una vasta gamma di dati, tra cui informazioni web disponibili pubblicamente, codice open source ospitato su GitHub e dati concessi in licenza da editori i cui nomi non sono stati rivelati.
L‘addestramento dei modelli su codice non autorizzato, anche se aperto, è un punto controverso tra gli sviluppatori. Alcuni sostengono che alcune basi di codice open source non consentano l’addestramento dell’AI nei loro termini di utilizzo. Apple, tuttavia, afferma di aver filtrato il codice per includere solo i repository con restrizioni d’uso minime.
Per potenziare le capacità matematiche dei modelli AFM, Apple ha incluso nel set di addestramento domande e risposte tratte da pagine web, forum, blog, tutorial e seminari. L’azienda ha anche attinto a set di dati di alta qualità, pubblicamente disponibili, con licenze che consentono l’uso per l’addestramento dei modelli.
Messa a punto dei modelli e mitigazione dei comportamenti indesiderati
Il set di dati per l’addestramento dei modelli AFM pesa circa 6,3 trilioni di token, meno della metà dei 15 trilioni utilizzati da Meta per addestrare il suo modello di generazione di testo di punta, Llama 3.1 405B.
Apple ha ottenuto ulteriori dati, compresi feedback umani e dati sintetici, per mettere a punto i modelli AFM e cercare di mitigare eventuali comportamenti indesiderati, come la tossicità. L’obiettivo dichiarato è quello di aiutare gli utenti a svolgere le attività quotidiane con i loro prodotti Apple, in linea con i valori fondamentali dell’azienda e i principi di AI responsabile.
La battaglia legale per il futuro dei modelli AI
Le battaglie in tribunale decideranno il destino dei modelli AI e il modo in cui vengono addestrati. Apple, nel frattempo, sta cercando di posizionarsi come un player etico, nel tentativo di trovare un equilibrio tra innovazione e rispetto della privacy degli utenti.