Quando i robot imparano a muoversi

Quando i robot imparano a muoversi

La ricerca punta sulle scienze cognitive; alcuni esperimenti confermano che si può lavorare sulle relazioni fra sensori e movimento meccanico, per dar vita ad automi di nuova generazione
La ricerca punta sulle scienze cognitive; alcuni esperimenti confermano che si può lavorare sulle relazioni fra sensori e movimento meccanico, per dar vita ad automi di nuova generazione

Numerosi scienziati di fama mondiale sono convinti che la ricerca robotica ormai non possa più prescindere dalla scienza cognitiva. Il concetto di Embodied Cognition (cognizione incorporata) è diventato a tutti gli effetti un elemento cruciale per il prossimo balzo evolutivo dei robot. In pratica, il termine indica un processo cognitivo che è il frutto di uno stretto legame fra il corpo e l’ambiente.

Test di laboratorio con robot reali e simulati hanno confermato che le relazioni fra i sensori di movimento e gli spostamenti fisici sono fondamentali per la navigazione attraverso lo spazio materiale. Gli scienziati specializzati nello studio dell’intelligenza artificiale, in verità, sono sempre stati contrari a questa particolare teoria, separando nettamente le due funzioni. “Ma queste, nel cervello non sono indipendenti. Ad esempio, un comportamento motorio ha un ruolo importante nella percezione che ha il corpo dell’ambiente”, ha dichiarato Olaf Sporns , neuro-scienziato della Indiana University .

Il test Secondo Sporns questo approccio, conosciuto come “embodied cognition”, ha trovato conferma negli esperimenti realizzati con Max Lungarella , docente e roboticist della Tokyo University. Per i test sono stati utilizzati tre robot: uno mobile a quattro zampe, un torso umanoide e una versione simulata con ruote (vedi foto). I loro sistemi di visione sono stati programmati per concentrarsi sugli oggetti di colore rosso. Ebbene, i modelli moventi si sono spostati automaticamente in prossimità dei mattoni rossi, mentre l’umanoide ha continuato a stringerli avvicinandoli agli occhi e piegando la testa per migliorare la visione.

Questo genere di reazioni è stato misurato attentamente per comprendere le relazioni fra il movimento e la vista . Allo stesso tempo è stato applicato un modello matematico per rilevare il livello di causalità intercorso fra l’attività motoria e la reazione sensoriale. “Le informazioni viaggiavano in entrambe le direzioni. Le rilevazioni dei sensori caratterizzavano i movimenti e vice-versa. È una dimostrazione di una certa importanza se pensiamo all’embodied cognition”, ha sottolineato Sporns.

Esperimenti come questo, secondo Sporns, potrebbero migliorare lo sviluppo progettuale dei nuovi robot. La massimizzazione del flusso informativo fra i sensori e i sistemi per il movimento può produrre una maggiore flessibilità e funzionalità. “I test con più robot simulati, evoluti con algoritmi genetici, suggeriscono che questo sia un approccio promettente”, ha aggiunto il neuro-scienziato.

“Di fatto sembra essere possibile creare sistemi cognitivi più efficienti, senza particolari specializzazioni. Praticamente come avviene in natura”, ha commentato Daniel Polani, ricercatore della Hertfordshire University . “L’interazione con l’ambiente è vitale per l’intelligenza. Ma non bisogna dimenticare che il nostro cervello è capace di svolgere il suo lavoro con concetti che esulano dalla dimensione fisica”, ha aggiunto Aaron Sloman, ricercatore della Birmingham University .

Dario d’Elia

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
2 nov 2006
Link copiato negli appunti