OpenAI ha calato il suo asso nella partita per la regolamentazione dell’AI. La società ha pubblicato quello che definisce un “progetto economico” per l’intelligenza artificiale: un documento in continua evoluzione che delinea le politiche su cui OpenAI pensa di poter lavorare con il governo USA e i suoi alleati.
OpenAI svela il suo “progetto di legge” per regolamentare l’AI
Il nocciolo del discorso? Gli Stati Uniti devono darsi una mossa e attirare miliardi di dollari per finanziare chip, dati, energia e talenti. Insomma, tutto il necessario per “dominare sull’AI“, come scrive Chris Lehane, il vicepresidente degli affari globali di OpenAI, nella prefazione del documento.
“Mentre alcuni Paesi mettono l’AI in panchina, ignorandone il potenziale economico“, tuona Lehane, “il governo americano può spianare la strada alla sua industria dell’AI per continuare a guidare l’innovazione mondiale, senza però dimenticare la sicurezza nazionale“.
Basta con il caos delle leggi statali sull’AI
OpenAI non è nuova a queste sparate. Da tempo, l’azienda esorta il governo federale a fare di più sull’AI e sulle infrastrutture necessarie per svilupparla. Finora, Washington ha lasciato il cerino in mano agli Stati, una situazione a suo dire insostenibile. Solo nel 2024, i legislatori statali hanno presentato quasi 700 proposte di legge sull’AI. E spesso una va a cozzare con l’altra.
Più soldi per data center e rinnovabili (ma anche per il nucleare)
E poi c’è la questione energetica. Per far girare i data center necessari a sviluppare e far funzionare l’AI, OpenAI chiede un aumento “drastico” degli investimenti federali per trasmettere energia e dati, e per costruire nuove fonti di energia, dalle rinnovabili come solare ed eolico fino al nucleare.
OpenAI e i suoi rivali nell’AI hanno già espresso il loro sostegno all’energia nucleare, sostenendo che serve per soddisfare la fame di elettricità delle server farm di nuova generazione.
Collaborare con il governo per un’AI sicura e condivisa (ma non troppo)
Ma non è finita qui. OpenAI vuole anche che il governo “sviluppi le migliori pratiche” per implementare i modelli AI in modo sicuro, “semplifichi” il coinvolgimento dell’industria dell’AI con le agenzie di sicurezza nazionale e metta a punto controlli sulle esportazioni che consentano di condividere i modelli con gli alleati, ma non con le “nazioni ostili“.
Insomma, collaborare sì, ma con giudizio. Tanto che OpenAI incoraggia il governo a condividere con i fornitori di AI alcune informazioni “sensibili” sulla sicurezza nazionale, come i briefing sulle minacce al settore, e ad aiutarli a ottenere risorse per valutare i rischi dei loro modelli.
Copyright e AI: la patata bollente
E poi c’è il tema spinosissimo del diritto d’autore. OpenAI sostiene che gli sviluppatori di AI dovrebbero poter utilizzare “informazioni pubblicamente disponibili“, compresi i contenuti protetti da copyright, per addestrare i loro modelli.
D’altronde, OpenAI e non solo addestrano i loro modelli su dati pubblici pescati da tutto il web. Certo, l’azienda ha accordi di licenza con diverse piattaforme ed editori, e offre modalità (limitate) per consentire ai creatori di rinunciare allo sviluppo dei suoi modelli. Ma ha anche detto chiaro e tondo che sarebbe impossibile addestrare l’AI senza usare materiali protetti da copyright. E diversi creatori hanno già trascinato l’azienda in tribunale, accusandola di aver usato le loro opere senza permesso.
OpenAI alza la posta nella partita per regolare l’AI
Insomma, OpenAI vuole dire la sua sulla regolamentazione dell’AI. E con il suo crescente peso politico ed economico, potrebbe avere voce in capitolo più di quanto si pensi. Resta da vedere se e quali parti del suo “manifesto” finiranno per influenzare le leggi.