Un gruppo di ricercatori della New York University (NYU) ha condotto un esperimento per studiare l’apprendimento del linguaggio da un punto di vista di un bambino. Hanno attaccato una telecamera alla testa di un neonato e hanno registrato i video delle sue attività quotidiane da quando aveva sei mesi fino al suo secondo compleanno.
L’apprendimento del linguaggio da un punto di vista di un bambino
I ricercatori hanno utilizzato questi video per addestrare un sistema di intelligenza artificiale basato su una rete neurale, un modello computazionale che imita il funzionamento dei neuroni biologici. Hanno pubblicato i risultati sulla rivista Science. Nonostante la relativa scarsità di dati rispetto agli enormi set di dati solitamente impiegati per addestrare l’AI, i ricercatori hanno dimostrato che le interazioni quotidiane di un bambino sono sufficienti per consentire all’AI di apprendere le strutture linguistiche di base, proprio come accade per l’apprendimento infantile umano.
“Per la prima volta abbiamo dimostrato che una rete neurale addestrata su dati realistici provenienti da un singolo bambino è in grado di imparare ad associare le parole alle controparti visive“, ha affermato Wai Keen Vong, ricercatore presso il Centre for Data Science della NYU nonché primo autore dello studio.
“I nostri risultati indicano che i recenti progressi negli algoritmi di intelligenza artificiale, combinati con l’esperienza quotidiana di un bambino, hanno il potenziale per rivoluzionare la nostra comprensione dell’apprendimento linguistico precoce e dell’acquisizione dei concetti nei bambini“, ha poi aggiunto Vong.
Un modello AI ispirato a un bambino
I sistemi di intelligenza artificiale di alto livello si addestrano su enormi quantità di testo, mentre i bambini sono esposti a “solo” milioni di parole all’anno. Utilizzando modelli AI per studiare l’apprendimento del linguaggio nei bambini, i ricercatori hanno indagato quali siano gli ingredienti necessari ai piccoli per imparare il significato delle parole: se servano pre-conoscenze linguistiche, capacità innate o semplice apprendimento associativo.
“Volevamo capire se il semplice apprendimento associativo basato sull’esperienza quotidiana di un bambino fosse sufficiente all’acquisizione del linguaggio“, spiega Brenden Lake, co-autore dello studio. I ricercatori hanno raccolto 60 ore di video con circa 250.000 parole pronunciate. Le parole sono state associate ai fotogrammi corrispondenti che mostravano ciò che il bambino vedeva in quel momento, durante attività come pasti, letture, giochi.
Due moduli AI sono stati addestrati su questi dati tramite apprendimento contrastivo (un tipo di apprendimento automatico), in modo da comprendere le associazioni tra stimoli visivi e linguistici.
Un test per il modello AI
Successivamente, i ricercatori hanno testato il modello – chiamato CVCL (Child’s View for Contrastive Learning) – allo stesso modo in cui viene misurato l’apprendimento delle parole nei bambini.
Gli è stata mostrata una parola e quattro immagini, chiedendogli di scegliere quella corrispondente. I risultati hanno dimostrato che il modello ha imparato molte parole dalla routine quotidiana del bambino. Il sistema era anche in grado di applicare alcuni vocaboli a immagini nuove non viste durante l’addestramento, proprio come fanno i bambini.
“I risultati di questo studio indicano che un sistema di intelligenza artificiale può apprendere il significato delle parole in modo analogo a un bambino, semplicemente processando dati naturalistici simili a quelli sperimentati quotidianamente da un infante, senza bisogno di meccanismi di apprendimento linguistico specifici. L’utilizzo di reti neurali è stato sufficiente per l’acquisizione di vocaboli in contesti reali di vita quotidiana” ha concluso Lake.