Roma – Se avete seguito fin qui i nostri discorsi sul Trusted Computing, di sicuro vi sarete resi conto di un fatto: il Trusted Computing è una tecnologia destinata a diffondersi in modo capillare nella nostra vita. Anzi: per raggiungere gli scopi per cui è stato concepito, il Trusted Computing deve per forza diventare una presenza comune nelle nostre case . La sua natura “pervasiva”, infatti, è una condizione irrinunciabile per il suo successo. Per poterlo usare come strumento di controllo, non è sufficiente che il Trusted Computing diventi una tecnologia “standard” (de iure o de facto): deve anche diventare ubiquitaria .
Per capire il motivo di questa affermazione bisogna mettersi nei panni di una grande azienda che produce software o contenuti multimediali. Per fare un esempio, potremmo calarci nei panni di Warner Bros nel momento in cui deve rilasciare sul mercato un nuovo film. Come forse sapete, tra poco Warner Bros inizierà a distribuire i suoi film in formato digitale su Internet usando BitTorrent. I file in questione saranno protetti da un sistema DRM, probabilmente quello di Microsoft . In questo modo sarà possibile rilasciare il film su Internet, lasciando che sia la rete P2P BitTorrent a gestire la distribuzione capillare. Niente server dedicati, nessun consumo di banda a spese di Warner Bros, nessun problema di continuità o di disponibilità del servizio. E tutto questo senza rinunciare ad un controllo molto preciso ed ineludibile sul consumo che viene fatto del prodotto. Un vero sogno.
Tuttavia, rimane la minaccia dei cracker. Se qualcuno riuscisse a crackare il sistema DRM utilizzato da Warner Bros, come John Lech Johansen ha crackato in passato il sistema di protezione dei DVD, cioè il CSS, Warner Bros si ritroverebbe improvvisamente derubata del suo intero catalogo. Una possibilità che sicuramente fa scorrere un brivido gelato lungo la schiena dei suoi manager. La tentazione di usare un sistema DRM basato su tecnologia Trusted Computing , al posto di quelli tradizionali, è ovviamente molto forte. Il punto è: quando Warner potrà farlo?
Prima che una grande casa editrice cinematografica, come Warner Bros, possa rilasciare su Internet un film protetto da un sistema DRM di seconda generazione, basato su tecnologie Trusted Computing, sarà necessario aspettare che gran parte dei dispositivi digitali degli utenti (PC, DVD player etc.) dispongano di questa tecnologia e che gli utenti siano disponibili ad utilizzarla .
Se Warner Bros rilasciasse il suo film troppo presto, quando solo una piccola percentuale dei dispositivi esistenti dispone del Fritz Chip, verrebbe inevitabilmente ignorata dal mercato. Questo avverrebbe anche se la presenza del Fritz Chip fosse molto diffusa ma gli utenti avessero preso l’abitudine di mantenerlo disabilitato. In entrambi i casi, Warner Bros sarebbe costretta a rinunciare agli introiti che gli potrebbe garantire la distribuzione di tipo convenzionale, una perdita economica che non sempre una azienda può permettersi.
La situazione sarebbe ben diversa se Warner Bros decidesse di rilasciare il suo film protetto da tecnologie DRM – TC dopo che il Trusted Computing fosse diventato una presenza abituale, ed ampiamente accettata, nella case degli utenti. A quel punto potrebbe contare comunque su ampi introiti economici provenienti dalla distribuzione del film. Ai pochi utenti “dissidenti” non rimarrebbe che piegarsi alla sua volontà o rinunciare alla visione.
Esiste quindi una soglia minima di diffusione sul mercato , e di “accettazione” da parte degli utenti, che deve essere superata prima che sia possibile usare il Trusted Computing come sistema DRM e come sistema anticopia per il software. Secondo alcuni osservatori, questa soglia potrebbe essere del 70%. Secondo altri potrebbe essere sufficiente un 50% od addirittura un 30%. In tutti i casi, è evidente che se il Trusted Computing non dovesse raggiungere una diffusione ed una accettazione adeguati, resterà per sempre impossibile usarlo come supporto per queste applicazioni di tipo DRM.
Si noti che il mancato superamento di questa soglia non può tuttavia impedire l’uso del Trusted Computing come strumento di sicurezza , ad esempio per creare reti “trusted” (grazie a TNC), per proteggere i dati su disco fisso (grazie al “sealed storage”) o per proteggere i documenti aziendali (grazie al “sealed storage” usato come tecnologia ERM). Tutte queste applicazioni di sicurezza, infatti, non dipendono dalla presenza di una piattaforma “trusted” comune ed estesa a tutto il mercato. È sufficiente che esista una piattaforma “trusted” estesa alla sola realtà personale (casa ed amici) o aziendale interessata.
Di conseguenza, possiamo dire che se il Trusted Computing non arriverà mai ad essere una presenza diffusa sul mercato, sarà costretto a diventare una semplice ed efficacissima tecnologia di sicurezza. In questo modo perderà tutte le sue caratteristiche di strumento di controllo sull’utente. In altri termini, se il Trusted Computing non dovesse superare la soglia di diffusione attesa dalle aziende, sarà costretto a diventare lo strumento di sicurezza che avrebbe sempre dovuto essere. Tornerà ad essere qualcosa che viene usato solo in ambiti ristretti e sotto il pieno controllo dei suoi proprietari. Ma sarà questo il suo destino? A giudicare da quanto stanno facendo le aziende, no. Come abbiamo già spiegato in altri articoli, esistono dei gruppi di lavoro del Trusted Computing Group che si occupano in modo specifico dei dispositivi mobili (PalmTop, PDA e Telefoni Cellulari di terza generazione), dei dispostivi di storage (memorie Flash, CD, DVD, Hard Disk, “armadi” SAN e via dicendo), delle reti digitali (LAN aziendali e Internet) e di ogni altra possibile applicazione. Sono già disponibili sul mercato da diversi mesi le CPU necessarie ad implementare il Trusted Computing sui dispositivi mobili e sui dispositivi della cosiddetta “Consumer Electronics” (Lettori CD e DVD da salotto, lettori portatili e da automobile etc.). Queste CPU sono disponibili, ad esempio, presso fornitori come VIA technologies e ARM. Sono già disponibili da tempo le “network appliance” ed i server di rete necessari per creare reti “trusted”. Ad esempio, Cisco produce già dispositivi che dispongono di tecnologia TC o TNC. Sono anche già stati presentati degli hard disk dotati di TPM sul controller.
Tutte queste soluzioni hanno già fatto la loro prima apparizione sul mercato o la faranno nei prossimi mesi. Al ritmo con cui vengono sostituiti i vecchi dispositivi, questa nuova generazione di dispositivi digitali non potrà diventare “maggioritaria” prima del 2007 – 2008. Con ogni probabilità, sarà necessario aspettare il 2010 – 2012 prima di poter usare il Trusted Computing fuori dai ristretti confini della vita personale o dell’azienda. A partire dal 2010 – 2012, tuttavia, potrebbe diventare molto difficile, o persino impossibile, sottrarsi al Trusted Computing .
Questo forse riesce a spiegare il silenzio che caratterizza tale rivoluzione tecnologica. Se pensate alla grancassa che ha accompagnato l’arrivo sul mercato di tecnologie assolutamente prevedibili e secondarie, come il DVD o certe generazioni di processori, di sicuro anche voi trovate “assordante” il silenzio che avvolge il Trusted Computing. Una tecnologia così rivoluzionaria, e di così grande impatto sulla vita quotidiana degli utenti, dovrebbe essere accompagnata da una vasta operazione di informazione e da una ampia ed approfondita discussione democratica. Ed invece… niente, il silenzio più totale (a parte qualche rivista di settore).
Apple è persino arrivata a fare causa ad alcuni siti web per ottenere che venisse rimossa qualunque traccia di informazione riguardo al TPM integrato ai nuovi MacIntosh con architettura Intel . È persino riuscita a far rimuovere i messaggi incriminati dai forum dei lettori!
Questa gigantesca Operazione Silenzio assume un significato inquietante se la si legge alla luce della riflessione che abbiamo appena fatto sulla “soglia minima di diffusione ed accettazione” del Trusted Computing. Meno la gente conosce questa tecnologia, e meno ne parla, e più è probabile che il Trusted Computing raggiunga e superi quella fatidica soglia. David Grawrock, Security Engineer di Intel, in una intervista rilasciata qualche anno fa alla rivista Secure diceva esplicitamente quanto segue.
SECURE – Questo è fantastico per chi produce chip ma cosa ne penserà l’uomo della strada? Come reagiranno gli utenti finali quando verrà detto loro che le macchine che stanno per acquistare contengono dei dispositivi di sicurezza che sono stati definiti dal TCPA?
David Grawrock – Personalmente, spero che non sappiano proprio niente del TCPA! Preferirei che i consumatori credessero che i sistemi sono più sicuri di quanto era abituale che fossero, principalmente perché è difficile per gli utenti vedere la sicurezza. Vedono una macchina e domandano perchè una macchina è più sicura ed un’altra meno.
Sarebbe meglio creare linee di prodotti fatte in modo tale che i produttori possano dire agli utenti che la linea attualmente in produzione è più sicura di quella precedente. I consumatori inizieranno allora a credere che i loro dati sono adeguatamente protetti perché quella particolare piattaforma è più sicura della precedente.
Questo è il vantaggio per l’utente: una maggiore fiducia nel fatto che la sua macchina sia in grado di proteggere i suoi dati.
Le macchine di oggi sono piuttosto buone ma le minacce sono in continuo aumento. I consumatori hanno bisogno di avere fiducia nel fatto che la loro piattaforma sia in grado di proteggere il loro lavoro in modo adeguato. L’idea di base è quella di fornire ai produttori dei componenti migliori con cui costruire dei sistemi migliori.”
Questo atteggiamento mentale ricorda da vicino quello di Thomas Hesse, presidente di global digital business, che parlando del famigerato rootkit Sony/BMG ha semplicemente scrollato le spalle ed ha detto: “La maggior parte delle persone, penso, non sa neppure cosa sia un rootkit, quindi perché dovrebbero preoccuparsene?”.
A questo punto, dovrebbe essere chiaro a tutti che se si vuole contrastare questa potenziale minaccia, è necessario farlo adesso , prima che abbia raggiunto quella soglia di diffusione che ne consentirebbe l’imposizione “a forza bruta” sul mercato. Dovrebbe essere altrettanto chiaro che, per farlo, è necessario informare e sensibilizzare gli utenti . In particolare, è necessario trasmettere questo messaggio: “Il Trusted Computing non può fare del male a te, singolarmente, in questo preciso momento, ma lo farà a tutti noi, e quindi anche a te, tra qualche anno”. In altri termini, è necessario lavorare ora per impedire che il Trusted Computing diventi ubiquitario tra qualche anno .
In un certo senso, ci troviamo di fronte ad un problema di inquinamento molto simile a quello che si presenta con la diffusione degli OGM o con l’uso dei pesticidi. Tecnicamente parlando, siamo di fronte ad un problema di “tossicità cronica”, cioè di qualcosa che agisce silenziosamente e sul lungo periodo . Si tratta di qualcosa di molto più insidioso di una minaccia caratterizzata da “tossicità acuta”, come quella del veleno di serpente o dei gas nervini. Questo perché non ci sono dei sintomi immediati che spingano le “vittime” ad intervenire per tempo ed in modo adeguato. Quando l’intossicazione diventa evidente, è troppo tardi.
Proprio come nel caso degli OGM e dei pesticidi, per difendere i propri interessi personali ed immediati è necessario superare gli abituali “orticellismi” di italica tradizione e pensare invece in termini globali, guardando al futuro. In pratica, occorre un approccio “ecologico” al problema.
Alessandro Bottoni
http://www.laspinanelfianco.it/
Le precedenti release di Untrusted sono pubblicate qui