L’ultima novità di Google per gli sviluppatori in fregola da intelligenza artificiale si chiama TensorFlow Lite , versione dell’ omonimo framework per il machine learning di seconda generazione specificatamente ottimizzato per l’uso sui gadget mobile . Un ambito dove la IA in realtà continuerà a latitare, a favore di un migliorato interfacciamento con le piattaforme cloud incaricate di gestire il grosso dei calcoli necessari.
TensorFlow Lite è stato pensato per essere leggero, multi-piattaforma e performante , ha spiegato Google, una soluzione in grado di implementare i modelli comportamentali generati dalla controparte cloud del framework anche in condizioni di calcolo ristrette come quelle che caratterizzano l’hardware di smartphone, tablet e altri gadget mobile.
L’implementazione di TensorFlow Lite si basa sull’uso di un modello TensorFlow precedentemente “addestrato” grazie ai sistemi distribuiti del cloud computing, modello che viene poi convertito in un formato di file ottimizzato per il mobile e infine caricato da una API C++ (nativa per iOS, integrata in una API Java su Android) per l’esecuzione dell’interprete.
Un interprete TensorFlow Lite completo “pesa” appena 300 kilobyte, ha spiegato Google, un risultato notevole se si considera che al momento TensorFlow Mobile occupa 1,5 megabyte di spazio. TensorFlow Lite è destinato a prendere il posto di TensorFlow Mobile e su Android può anche sfruttare la API Neural Networks per accelerare i calcoli via hardware .
I modelli attualmente disponibili per l’uso con TensorFlow Lite includono MobileNet, Inception v3 e Smart Reply, e da Mountain View ci tengono a sottolineare che la nuova libreria è una versione ancora provvisoria di un progetto destinato a crescere e ad evolversi nel tempo .
Alfonso Maruccia