Qualche mese fa la fiducia di Wall Street nel potenziale dell‘intelligenza artificiale generativa è stata messa alla prova con l’arrivo di DeepSeek, un modello open source. Pur essendo fortemente censurato nei contenuti che può generare, DeepSeek ha dimostrato che è possibile creare un sistema avanzato, senza spendere miliardi, con un approccio più intelligente.
DeepSeek sfida i big con l’AI che si auto-migliorano
DeepSeek è stato rapidamente adottato da giganti come Huawei, Oppo e Vivo, mentre aziende come Microsoft e Alibaba gli hanno immediatamente dato spazio sulle loro piattaforme. Ora, il prossimo obiettivo della startup cinese è di sviluppare modelli AI capaci di auto-migliorarsi.
Secondo Bloomberg, i ricercatori di DeepSeek e dell’Università Tsinghua in Cina stanno lavorando a un nuovo metodo per rendere i modelli di intelligenza artificiale più intelligenti ed efficienti. La tecnologia si chiama self-principled critique tuning (SPCT) e si basa su un approccio noto come generative reward modelling (GRM).
In parole semplici, si tratta di un sistema di auto-valutazione in tempo reale: l’AI viene istruita a migliorarsi continuamente, valutando le proprie risposte attraverso un processo interno di “critica”. Invece di affidarsi esclusivamente a correzioni umane, il modello utilizza un “giudice” interno che applica principi e criteri prestabiliti per analizzare la qualità delle risposte generate.
Questo giudizio viene poi confrontato con le regole fisse del modello e con l’obiettivo della risposta. Se c’è una forte coerenza, viene emesso un segnale di ricompensa che indirizza l’AI a migliorare ulteriormente nel ciclo successivo. Il risultato è un sistema che apprende in modo più autonomo e scalabile, riducendo la necessità di intervento umano.
Gli esperti che hanno redatto questo articolo si riferiscono alla prossima generazione di modelli AI che si auto-migliorano come DeepSeek-GRM. I benchmark presentati nell’articolo suggeriscono che questi modelli superano quelli di Google, Meta e OpenAI. DeepSeek sostiene che questi modelli AI di nuova generazione saranno rilasciati tramite un canale open source.
AI che si auto-migliora?
L’idea di intelligenze artificiali capaci di auto-migliorarsi sta attirando crescente attenzione e solleva sia entusiasmo che preoccupazioni. Eric Schmidt, ex CEO di Google, ha suggerito che sistemi di questo tipo dovrebbero includere un meccanismo di spegnimento per sicurezza. Il concetto non è nuovo: già nel 1965 I.J. Good ipotizzava macchine ultra-intelligenti capaci di migliorarsi autonomamente, mentre nel 2007 Eliezer Yudkowsky parlava di Seed AI.
Oggi, aziende come Meta, Google, IBM e Sakana AI stanno sperimentando approcci simili. Meta ha sviluppato modelli auto-ricompensanti che valutano e migliorano le proprie risposte, superando in alcuni test concorrenti come GPT-4 e Claude 2. Anche DeepMind ha presentato un algoritmo chiamato Dreamer, in grado di apprendere e migliorarsi giocando a Minecraft. IBM, invece, punta su un metodo chiamato deductive closure training. Tuttavia, restano sfide tecniche e rischi etici da affrontare.
Le ricerche dimostrano che quando i modelli di intelligenza artificiale cercano di addestrarsi su dati sintetici generati automaticamente, si verificano errori comunemente definiti “collasso del modello“. Sarà interessante vedere come DeepSeek realizzerà questa idea e se riuscirà a ottenere un risultato più economico rispetto ai suoi concorrenti occidentali.