La terza versione del modello text-to-image Stable Diffusion debutterà in anteprima pubblica il 12 giugno. La notizia è stata annunciata alla conferenza Computex di Taiwan, dove Christian Laforte, CTO di Stability AI e co-interim CEO, ha rivelato la data di rilascio insieme a Lisa Su, CEO di AMD, durante il loro discorso sul palco.
Stability AI rilascia Stable Diffusion 3 al pubblico
Durante l’annuncio, Laforte ha posto l’accento sul fatto che Stability AI ha dedicato molta attenzione agli aspetti di sicurezza e responsabilità nello sviluppo di Stable Diffusion 3. Dopo approfondite valutazioni, l’azienda ritiene che il modello aggiornato sia pronto per essere testato su larga scala da un pubblico più ampio.
Questo lancio rappresenta un cambiamento significativo nel modo in cui i modelli di intelligenza artificiale vengono sviluppati e rilasciati. In passato erano principalmente i ricercatori accademici a guidare i progressi nel campo dell’AI, mentre ora le aziende private come Stability AI stanno assumendo un ruolo chiave nell’evoluzione di questa tecnologia. Laforte ha sottolineato l’importanza per l’azienda di rilasciare i propri modelli in modo aperto, permettendo così di sbloccare nuovi utilizzi e casi d’uso da parte degli utenti.
Miglioramenti nella qualità delle immagini
Sebbene Laforte non abbia fornito dettagli tecnici specifici su SD 3, ha mostrato alcune immagini per illustrare i progressi di questa nuova versione. Confrontando un’immagine in bianco e nero di una mano umana che suona una chitarra acustica, creata con SD XL 1.0 nel 2023, con una realizzata utilizzando Stable Diffusion 3, si possono notare dettagli più realistici.
“Tutto ciò che coinvolge mani e schemi ripetuti è davvero difficile“, ha spiegato, lodando l’immagine creata con SD3 perché offre “dettagli più realistici come la forma della chitarra e delle mani“. Laforte ha riconosciuto la presenza di alcune imperfezioni nell’immagine generata da Stable Diffusion 3, ma ha sottolineato il grande cambiamento reso possibile da un trasformatore di diffusione multimodale che consente al modello di comprendere meglio i suggerimenti.
Prestazioni più veloci grazie a un hardware più potente
Durante la presentazione, Laforte ha mostrato esempi di immagini generate dal modello Stable Diffusion 3 in un tempo inferiore rispetto a quello necessario per inserire il testo di richiesta. Questo notevole miglioramento nelle prestazioni e nella velocità di generazione delle immagini è stato reso possibile grazie all’utilizzo di hardware con una maggiore quantità di memoria, rispetto alle versioni precedenti.
In particolare, Laforte ha sottolineato come l’impiego di 92 gigabyte di memoria HBM (High Bandwidth Memory) abbia rappresentato un punto di svolta, permettendo un accesso ai dati molto più rapido. Laforte ha espresso l’auspicio che in futuro si possa disporre di hardware ancora più avanzato, per supportare l’evoluzione e la crescente complessità dei modelli di intelligenza artificiale.
Lisa Su di AMD ha colto l’occasione per suggerire che Stability AI potrebbe aver bisogno di alcune GPU aggiuntive e ha approvato con entusiasmo la notizia che SD3 funzionerà benissimo sulle CPU Ryzen 300 AI annunciate nello stesso keynote.