Anthropic, azienda fondata da ex dipendenti di OpenAI che ha ricevuto un finanziamento di 300 milioni di dollari da Google, ha annunciato un importante aggiornamento per Claude. Il modello IA generativo supporta ora 100.000 token, quindi può elaborare un testo di lunghezza maggiore.
Migliora la memoria di Claude
I modelli IA che generano testo hanno una memoria corta. Quando forniscono una risposta analizzano solo una piccola parte della richiesta, nota come “context window”. L’ultima versione di ChatGPT, basata su GPT-4, ha una context window di circa 32.000 parole. In realtà una context window viene misurata in token. Ad esempio, 1 token corrisponde a circa 4 parole inglesi, mentre 2.048 token sono pari a circa 1.500 parole.
Anthropic ha annunciato che la context window di Claude è stata aumentata da 9.000 a 100.000 token, corrispondenti a circa 75.000 parole. Ciò significa che il modello IA può analizzare centinaia di pagine di materiale e le conversazioni possono durare molte ore o giorni. In pratica, a differenza di ChatGPT, Claude può “ricordare” un testo di maggiore lunghezza senza andare fuori argomento.
Una persona può leggere 100.000 token di testo in circa 5 ore. Claude impiega meno di un minuto. È possibile caricare più documenti o un intero libro nel prompt e chiedere a Claude di generare un riassunto di varie parti del testo. Grazie al supporto per 100.000 token, il modello IA può essere utilizzato per creare un riassunto di documenti complessi, esaminare i pro e i contro di una legge o trovare le risposte a domande tecniche nella documentazione per sviluppatori.
L’incremento della context window è sicuramente un importante miglioramento. Tuttavia Claude, come altri modelli simili, non conserva le informazioni per le sessioni successive, quindi si cancellano i ricordi. Simulare l’intelligenza umana non è ancora possibile (per fortuna, ndr).