Apple ha ufficialmente firmato l’impegno volontario della Casa Bianca per lo sviluppo di intelligenze artificiali sicure, protette e affidabili, come annunciato in un comunicato stampa di venerdì.
Questa mossa arriva in concomitanza con il lancio imminente di Apple Intelligence, l’offerta di AI generativa dell’azienda, che sarà integrata nei suoi prodotti principali. Anche se ci sarà da aspettare… Infatti, il lancio di Apple Intelligence non farà parte della primo aggiornamento principale di iOS 18 e iPadOS 18 previsto per la fine di settembre.
L’impegno di Apple impegno condiviso con altre big tech
Apple si unisce ad altre 15 aziende tecnologiche, tra cui colossi come Amazon, Google, Meta, Microsoft e OpenAI, che avevano già aderito alle regole di base della Casa Bianca per lo sviluppo dell’AI generativa a luglio 2023. Sebbene all’epoca Apple non avesse ancora rivelato i suoi piani per l’integrazione dell’AI in iOS, durante la WWDC di giugno l’azienda ha chiarito la sua intenzione di puntare fortemente sull’AI generativa, a partire da una partnership con OpenAI per integrare ChatGPT nell’iPhone.
Essendo spesso al centro dell’attenzione delle autorità di regolamentazione federali, Apple vuole dimostrare in anticipo la sua disponibilità a rispettare le regole della Casa Bianca in materia di AI. Questa mossa potrebbe essere interpretata come un tentativo di guadagnare favore prima che si scatenino future battaglie normative sull’intelligenza artificiale.
Sebbene gli impegni volontari di Apple e delle altre aziende nei confronti della Casa Bianca non abbiano un peso vincolante, rappresentano comunque un primo passo verso lo sviluppo di un’intelligenza artificiale sicura ed etica. Questo impegno si inserisce in un contesto più ampio di iniziative volte a regolamentare l’AI, come l’ordine esecutivo del Presidente Biden a ottobre e le diverse proposte di legge attualmente in discussione a livello federale e statale.
Le promesse delle aziende di AI
In base all’impegno volontario, le aziende di AI si impegnano a sottoporre i loro modelli a red team prima del rilascio pubblico, condividendo le informazioni raccolte con il pubblico. Inoltre, accettano di trattare in modo confidenziale i pesi dei modelli di AI non rilasciati, limitando l’accesso a un numero ristretto di dipendenti e lavorando in ambienti sicuri.
Infine, le aziende si impegnano a sviluppare sistemi di etichettatura dei contenuti, come il watermarking, per aiutare gli utenti a distinguere ciò che è generato dall’AI da ciò che non lo è.
Il futuro dell’AI open-source e il ruolo della Casa Bianca
Il Dipartimento del Commercio ha annunciato che presto pubblicherà un rapporto sui potenziali benefici, rischi e implicazioni dei modelli di fondazione open-source. L’AI open-source sta diventando sempre più un campo di battaglia politico-normativo, con alcuni schieramenti che vogliono limitare l’accesso ai pesi dei modelli di AI potenti in nome della sicurezza, mentre altri temono che questo possa limitare significativamente l’ecosistema delle startup e della ricerca sull’AI.
La posizione della Casa Bianca su questo tema potrebbe avere un impatto significativo sull’industria dell’intelligenza artificiale.