Google DeepMind ha appena annunciato la formazione di una nuova divisione, AI Safety and Alignment, che include team già esistenti sulla sicurezza dell’AI e nuovi gruppi specializzati di ricercatori e ingegneri. L’azienda ha reso noto che all’interno di AI Safety and Alignment è stato creato un team dedicato alla sicurezza dell’intelligenza artificiale generale (AGI), ovvero di sistemi AI potenzialmente in grado di svolgere qualsiasi attività umana.
L’obiettivo è rafforzare gli sforzi nello sviluppo responsabile dell’intelligenza artificiale, con particolare focus sulla gestione dei rischi connessi ai sistemi AGI ipoteticamente molto potenti e autonomi.
Un nuovo team per la sicurezza dell’AGI
AI Safety and Alignment ha una missione simile a quella di Superalignment, la divisione di OpenAI creata lo scorso luglio. Il nuovo team di AI Safety and Alignment lavorerà in sinergia con il gruppo di ricerca Scalable Alignment di DeepMind già attivo a Londra.
Scalable Alignment si concentra sulla sicurezza dell’IA esplorando soluzioni alla complessa sfida tecnica di come controllare ipotetici sistemi IA super-intelligenti che devono ancora essere sviluppati.
Altri obiettivi di AI Safety and Alignment
Oltre alla sicurezza dell’AGI, AI Safety and Alignment si occupa anche di implementare misure di sicurezza nei modelli Gemini di Google, sia quelli attuali che quelli in fase di sviluppo. La sicurezza dell’AI è un campo molto ampio, che comprende diversi aspetti. Tra gli obiettivi a breve termine di AI Safety and Alignment ci sono: evitare consigli medici errati, proteggere i bambini, e prevenire la diffusione di pregiudizi e ingiustizie.
Anca Dragan alla guida del team
Il team di AI Safety and Alignment sarà guidato da Anca Dragan, una ricercatrice di Waymo e una professoressa di informatica alla UC Berkeley. Dragan ha dichiarato a TechCrunch che il suo lavoro mira a far sì che i modelli di IA capiscano meglio e in modo più robusto le preferenze e i valori umani, che sappiano gestire l’incertezza, che collaborino con le persone, che siano resistenti agli attacchi avversari, e che rispettino la diversità e la dinamicità dei punti di vista umani.
Il lavoro di Dragan con Waymo potrebbe sollevare alcune perplessità, visto che l’azienda di auto autonome di Google ha avuto alcuni problemi di guida recentemente. Inoltre, Dragan divide il suo tempo tra DeepMind e l’UC Berkeley, dove dirige un laboratorio di algoritmi per l’interazione uomo-IA e uomo-robot.
Questo potrebbe far pensare che Dragan non dedichi abbastanza attenzione alla sicurezza dell’AI, un tema molto delicato e con possibili rischi a lungo termine, come il terrorismo o la destabilizzazione sociale. Dragan sostiene però che la sua ricerca all’UC Berkeley e quella di DeepMind sono complementari e interconnesse. Una cosa è certa, avrà sicuramente molto da fare…
L’allucinazione è il tallone d’Achille dell’intelligenza artificiale
Lo scetticismo verso gli strumenti di intelligenza artificiale è oggi molto diffuso, soprattutto per il rischio di deepfake e disinformazione. Anche le imprese, principali clienti a cui Google e rivali puntano per commercializzare le innovazioni GenAI, sono guardinghe di fronte alle lacune della tecnologia e alle sue implicazioni.
Le preoccupazioni non sono immotivate. La scorsa settimana il Wall Street Journal ha evidenziato come Copilot di Microsoft, basato su modelli GenAI simili a Gemini, commetta spesso errori nei riassunti delle riunioni e nelle formule dei fogli di calcolo. La colpa è delle cosiddette “allucinazioni“, ovvero la tendenza dell’AI a generare contenuti inesistenti, problema che per molti esperti non potrà mai essere risolto del tutto.