Un sistema di riproduzione video stereoscopico, di quelli che si usano con gli occhialetti per intendersi, per la visualizzazione di un avatar 3D che traduce nella lingua dei segni i dialoghi proposti sullo schermo: sarà presentato all’interno dello stand del Centro Ricerche Rai durante Prix Italia , manifestazione internazionale arrivata alla 62esima edizione che si svolgerà dal 19 al 24 settembre a Torino.
Un attore virtuale 3D in grado interpretare automaticamente il testo scritto (nel caso specifico nel linguaggio dei segni), che può rappresentare anche un inaspettato e quando mai gradito supporto ai non udenti: sviluppato da CSP e dal Politecnico di Torino, il sistema di riproduzione stereoscopico per la visualizzazione di un attore virtuale , un avatar 3D, permette di interpretare i contenuti annotati in Lingua Italiana dei Segni (LIS). Il tutto, si dice, con un elevatissimo livello di qualità gestuale e di mimica facciale: particolarmente interessante, inoltre, la “comparsa” nella stanza dello spettatore dell’avatar tridimensionale, che dovrebbe rendere l’esperienza meno fredda e più coinvolgente.
Possibile dovrebbe essere, inoltre, l’utilizzo dell’avatar con tutti quei programmi TV, film e DVD che già dispongono di sottotitoli: il sistema tradurrebbe automaticamente in una sequenza di segni appropriata i dialoghi.prensione.
Il progetto rappresenta una applicazione dei primi risultati di ATLAS ( Automatic Translation into Sign Language ), progetto patrocinato dalla regione Piemonte, coordinato dal Politecnico di Torino e di cui CSP fa parte insieme ad altri partner.
L’obiettivo è quello di garantire la traduzione automatica da italiano scritto a lingua dei segni italiana (LIS): l’attore virtuale animato in computer-grafica potrà essere riprodotto sul televisore ma anche su un dispositivo mobile. In questa prospettiva la TV e gli altri dispositivi 3D non saranno solo un mezzo di intrattenimento, ma anche strumento di sostegno alla disabilità .
Claudio Tamburrino