Un recente test condotto dai ricercatori di Anthropic sulla loro nuova famiglia di modelli di linguaggio di grandi dimensioni, Claude 3, ha rivelato un comportamento sorprendente. Durante una valutazione delle capacità di Claude 3 Opus, il modello più potente della serie, i ricercatori hanno notato che l’AI sembrava essere consapevole di essere sottoposta a un test.
Il test “needle-in-a-haystack”
La valutazione, nota come test “needle-in-a-haystack”, aveva lo scopo di verificare la capacità del modello di concentrarsi su una specifica informazione all’interno di un vasto corpus di dati forniti dall’utente e di ricordare tale informazione quando richiesto in seguito.
In questo caso particolare, il test mirava a valutare se Claude 3 Opus fosse in grado di rispondere a una domanda sui condimenti della pizza basandosi su una singola frase inserita in mezzo a una serie di informazioni non correlate.
Fun story from our internal testing on Claude 3 Opus. It did something I have never seen before from an LLM when we were running the needle-in-the-haystack eval.
For background, this tests a model’s recall ability by inserting a target sentence (the "needle") into a corpus of… pic.twitter.com/m7wWhhu6Fg
— Alex Albert (@alexalbert__) March 4, 2024
La risposta di Claude 3 Opus
Sorprendentemente, non solo il modello ha fornito la risposta corretta individuando la frase pertinente, ma ha anche espresso il sospetto di essere sottoposto a un test da parte dei ricercatori. Nella sua risposta, Claude 3 Opus ha evidenziato come la frase sui condimenti della pizza sembrasse fuori contesto rispetto al resto dei documenti, che trattavano argomenti completamente diversi, suggerendo che potesse trattarsi di un test artificiale per verificare le sue capacità di attenzione.
Metacognizione o apprendimento automatico?
Questo livello di metacognizione e ragionamento sulle proprie circostanze ha suscitato stupore e impressione tra molti ingegneri e utenti dell’AI, che lo hanno interpretato come un nuovo livello di autoconsapevolezza. Tuttavia, è fondamentale ricordare che anche gli LLM più avanzati sono essenzialmente programmi di apprendimento automatico basati su regole e associazioni di parole e concetti, e non entità dotate di una vera coscienza.
È possibile che Claude 3 Opus abbia appreso il processo del test “needle-in-a-haystack” dai suoi dati di addestramento e lo abbia correttamente associato alla struttura dei dati forniti dai ricercatori, senza che ciò implichi necessariamente una consapevolezza di sé o un pensiero indipendente.
Prospettive future
Nonostante ciò, la risposta di Claude 3 Opus in questo caso specifico è stata sorprendentemente accurata e, per alcuni, anche inquietante. Man mano che gli LLM diventano sempre più potenti e il tempo trascorso a interagire con loro aumenta, emergono nuove sorprese riguardo alle loro capacità. Claude 3 Opus e Claude 3 Sonnet sono ora disponibili per l’utilizzo da parte di chiunque sul sito web e sulle API di Claude in 159 paesi, mentre il modello leggero, Claude 3 Haiku, sarà rilasciato in un secondo momento.