Prende il via oggi Google Cloud Next ’24, la nuova edizione dell’evento organizzato da bigG che andrà avanti fino a giovedì 11 aprile, ospitato dal Mandalay Bay di Las Vegas. Il focus concentrato è su cloud e intelligenza artificiale, nello specifico all’intersezione tra questi due ambiti. Non potrebbe essere altrimenti, considerando i trend del mercato e ciò che nell’ultimo periodo ha attirato l’attenzione degli addetti ai lavori.
Le novità annunciate al Google Cloud Next ’24
La migliore sintesi delle novità presentate è quella fornita da Thomas Kurian, CEO di Google Cloud.
L’anno scorso, il mondo stava solo iniziando a immaginare come l’IA generativa avrebbe potuto trasformare le aziende. Oggi, questa trasformazione è ormai ampiamente avviata. Per Google, la missione ultima rimane sempre la stessa: rendere l’IA utile a tutti, per migliorare la vita del maggior numero possibile di persone.
Per quanto riguarda le novità presentate, partiamo da A3 mega. È una nuova istanza basata su GPU, sviluppata in collaborazione con NVIDIA utilizzando la componente H100 e che offre il doppio della larghezza di banda rispetto ad A3, così da poter supportare i carichi di lavoro più pesanti. Confidential A3 è invece pensata per proteggere al meglio la riservatezza e l’integrità dei dati sensibili, durante le operazioni di training e l’inferenza.
Google Cloud annuncia poi l’arrivo dei nuovi chip NVIDIA B200 e GB200 (Grace Blackwell) all’inizio del 2025. Il primo è progettato per il training e il servizio mainstream, il secondo invece per il training e il servizio di modelli di ultima generazione.
La disponibilità generale di TPU v5p, l’acceleratore IA più potente di bigG, mette a disposizione una potenza di calcolo per pod quattro volte superiore rispetto alla generazione precedente. Ancora, è disponibile il supporto di GKE (Google Kubernetes Engine) per TPU v5p. A tal proposito, il gruppo di Mountain View sottolinea che, nell’ultimo anno, l’utilizzo di GPU e TPU su GKE è cresciuto di oltre il 900%.
Per quanto riguarda le opzioni di archiviazione ottimizzate per l’IA, Google Cloud ha accelerato la velocità di training con nuove funzionalità di caching in Cloud Storage FUSE e Parallelstore oltre ad aver introdotto Hyperdisk ML (in anteprima), incrementando i tempi di caricamento dei modelli fino a 3,7 volte rispetto alle soluzioni più diffuse.
Sul fronte Dynamic Workload Scheduler, la modalità calendario aiuterà i clienti a garantire una gestione efficiente delle risorse.
IA e dati, sempre più vicini
Tra gli obiettivi c’è quello di avvicinare l’IA al luogo in cui sono generati e utilizzati i dati. Per questo, Google Cloud sta abilitando l’intelligenza artificiale ovunque attraverso GDC (Google Distributed Cloud). Così facendo, i clienti possono scegliere l’ambiente, la configurazione e i controlli che meglio si adattano alle loro esigenze.
A tale scopo, Google introduce su GDC le GPU NVIDIA, la tecnologia GKE e i modelli IA aperti come aperti Gemma e Llama, Vector Search. Poi, GDC è fornita in una configurazione completamente air-gapped con operazioni locali, piena survivability, gestita da Google o da un partner a scelta, con la possibilità di esercitare un controllo completo da parte delle aziende, anche per assicurare la piena conformità a eventuali modifiche normative.
Axion, N4 e C4
Google Axion è la prima CPU del gruppo basata su Arm e progettata per i data center. A caratterizzarla sono prestazioni fino al 50% superiori e un’efficienza energetica fino al 60% migliore rispetto alle istanze attuali basate su x86 di pari livello. Ci sono poi N4 e C4, due nuove serie di macchine virtuali generiche.
Vertex AI e gli agenti IA
In tema di modelli IA, Google Cloud ne offre più di 130 tra proprietari e di terze parti su Vertex AI. I clienti potranno accedere anche a Gemini 1.5 Pro in anteprima pubblica con due dimensioni di finestre contestuali (128K token e 1 milione di token) ed è ora disponibile in anteprima pubblica, per elaborare grandi quantità di informazioni in un unico flusso come 1 ora di video, 11 ore di audio, basi codice con oltre 30.000 linee di codice o oltre 700.000 parole.
C’è poi Claude 3, la nuova famiglia presentata da Anthropic a inizio marzo, ora generalmente disponibile. All’elenco si aggiungono CodeGemma per casi d’uso di codifica e Imagen 2 per il text-to-image con supporto a immagini animate, GIF, filtri di sicurezza, filigrane digitali (con Digital Watermarking) e funzionalità avanzate per l’editing fotografico.
Vertex AI Agent Builder offre la comodità di una console per la creazione di agenti senza codice, funzionalità di grounding, organizzazione e potenziamento. Permette di dar vita rapidamente una vasta gamma di agenti basati su Ricerca Google e sui dati aziendali.
Per gli sviluppatori
Agli addetti ai lavori nell’ambito dello sviluppo si rivolge l’inclusione di Gemini 1.5 Pro in Gemini Code Assist con supporto a un’enorme finestra contestuale da 1 milione di token. Inoltre, Gemini Cloud Assist fornisce assistenza IA per tutto il ciclo di vita dell’applicazione, facilitando la progettazione, la sicurezza, il funzionamento, la risoluzione dei problemi e l’ottimizzazione delle prestazioni e dei costi.
Per le aziende
Le realtà che vogliono sfruttare al meglio le potenzialità dell’intelligenza artificiale applicata ai dati, senza scendere a compromessi in termini di sicurezza, potranno beneficiare di altre novità. Tra queste, Gemini in BigQuery utilizza l’intelligenza artificiale per aiutare i team a predisporre, scoprire, analizzare e gestire i dati.
Gemini in Database facilita invece la migrazione in modo sicuro dei dati dai sistemi legacy, mentre Gemini in Looker (in anteprima), permette agli agenti di dati di integrarsi facilmente con i flussi di lavoro.
Il raggio d’azione di Gemini si estende poi a Threat Intelligence e alle Security Operation, per fornire assistenza a chi opera nell’ambito della sicurezza.
Novità per Workspace
L’integrazione di Gemini in Workspace si arricchisce di strumenti inediti al servizio della produttività. Si parte con Google Vids (maggiori informazioni nell’articolo dedicato), una nuova applicazione alimentata dall’intelligenza artificiale per la creazione di video in ambito professionale. Fornisce assistenza nella scrittura, nella produzione e nell’editing di video, in un’unica soluzione, attraverso un’interfaccia semplice e intuitiva. Sarà rilasciata su Workspace Labs a giugno.
Debutta poi un componente aggiuntivo per riunioni e messaggistica. La funzionalità Prendi appunti per me si occuperà di effettuare la sintesi delle chat e la traduzione in tempo reale in 69 lingue. Costerà 10 dollari al mese per ogni utente.
L’elenco dedicato a Workspace si conclude con un componente aggiuntivo per AI Security. Consentirà agli amministratori di classificare e proteggere automaticamente i file e i dati sensibili, utilizzando modelli di intelligenza artificiale che preservano la privacy. Anche in questo caso, è al prezzo di 10 dollari al mese per utente.
Per tutti i dettagli a proposito delle novità annunciate e agli ultimi aggiornamenti da Las Vegas rimandiamo al sito ufficiale dell’evento.