A volte fare i conti esatti non è tutto. Se un arrotondamento può bastare, questa la teoria del professor Krishna Palem della Rice University , perché puntare per forza alla cifra giusta? Basta che dietro quell’arrotondamento, dietro quella approssimazione ci sia una teoria matematica solida e precisa: i risultati, come ha dimostrato l’accademico con la realizzazione del suo primo chip probabilistico , possono anche superare le aspettative.
L’idea di Palem nasce all’inizio di questo decennio. All’epoca, come oggi d’altronde, la sfida dell’industria dei semiconduttori era di infilare sempre più circuiti nello stesso piccolo quadratino di silicio. La legge di Moore , quella che predice il raddoppio del numero di transistor ogni 18 mesi , parla chiaro: ma ci sono limiti , che con la miniaturizzazione da 32nm prospettata da Intel e AMD – che anticipa quella a 22nm prossima ventura – potrebbero presto essere raggiunti, e fermare il progresso in questo senso.
Il professore si è dunque chiesto cosa fare quando questi limiti fossero stati raggiunti. Ci sono le teorie sulla computazione ottica , quelle sul computer quantico , ma entrambe sono tecnologie ancora allo stadio iniziale del loro sviluppo. Dunque bisognava trovare un’altra strada, e quella scelta da Palem è stata una nuova teoria subito denominata probabilistica: che punta a scovare un metodo per arrotondare i calcoli che consenta più velocità e un bel risparmio di energia.
L’idea è la seguente: occorre calcolare il totale di diverse cifre, ma c’è un margine di errore che non inficia troppo la stima di cui c’è bisogno. Ad esempio, se il risultato corretto fosse 55.345,25 allora un risultato pari a 55.345,38 potrebbe essere accettabile: meno accettabile sarebbe qualcosa tipo 45.345,25. Partendo da questi assunti Palem ha sviluppato piano piano una serie di formule, “pesando” per così dire il valore di un errore piuttosto che di un altro.
Il risultato è stato un chip, primo prototipo di questa generazione di computer probabilistici, in grado di eseguire i calcoli 7 volte più veloce di un computer tradizionale con lo stesso numero di transistor, e consumando 30 volte meno energia . Prospettive interessanti soprattutto per quei settori, come l’elettronica di consumo, dove l’autonomia dei dispositivi viene spesso prima nella scala dei valori utili ai consumatori della produzione di un risultato esatto al 100 per cento.
Il professore fa degli esempi pratici: un video con qualche pixel fuori posto potrebbe tranquillamente passare inosservato – purché il numero dei pixel sia piccolo abbastanza – e anzi il cervello umano potrebbe intervenire per sanare alcune inesattezze rendendole invisibili. Ed è proprio la grafica digitale uno dei settori che potrebbe trarre maggiori benefici da questo tipo di computazione, sebbene non sia l’unico.
I computer probabilistici, in ogni caso, non potranno essere di certo usati per calcolare la traiettoria di un missile o ricavare le previsioni del tempo da un modello matematico. Per questi compiti bisognerà sempre e comunque fare ricorso alle CPU “vecchio stile”: in tanti altri casi, potrebbero consentire la costruzione di dispositivi che funzioneranno ininterrottamente per settimane senza bisogno di essere ricaricati, e che produrranno risultati assolutamente all’altezza delle aspettative.
Dopo un’iniziale scetticismo, ora la comunità scientifica mostra molta attenzione per il lavoro del professor Palem. Il fatto che abbia già costruito un primo chip modellato secondo la sua teoria, il fatto che i risultati ottenuti sperimentalmente abbiano superato le aspettative teoriche da lui stesso calcolate, fa ben sperare per il prosieguo di questa promettente ricerca.
Luca Annunziata