Pasadena (USA) – “Immaginate una connessione ad Internet così veloce da permettervi di scaricare un intero film nel giro di pochi secondi”. Questo l’incipit di un recente articolo apparso sulla rivista New Scientist e riguardante Fast TCP , nuova versione di uno dei protocolli storici su cui poggia Internet.
Il compito del TCP (Transmission Control Protocol) è quello di verificare che i dati trasmessi arrivino a destinazione senza errori e nel giusto ordine attraverso un meccanismo basato su ricevute di ritorno e ritrasmissione. Fast TCP, il cui sviluppo viene portato avanti da un gruppo di ricercatori del California Institute of Technology di Pasadena, apporta diverse modifiche a questo meccanismo così da minimizzare le attese e le ritrasmissioni.
I ricercatori californiani hanno spiegato che il nuovo protocollo, di cui pochi mesi fa è stato fatto un primo test pratico , è in grado, grazie al supporto del software e dell’hardware, di misurare in continuazione il tempo impiegato dai pacchetti per arrivare a destinazione e il tempo impiegato dalle ricevute per tornare indietro.
“Questo – scrive il New Scientist – rivela i ritardi sulla linea avvertendo in anticipo di eventuali pacchetti persi. Il software Fast TCP utilizza questo per predire il massimo data rate che la connessione può supportare senza perdere dati”.
In sostanza, dunque, Fast TCP promette di ottimizzare la trasmissione dei dati e sfruttare più a fondo la banda passante di ogni tipo di connessione. Una delle caratteristiche chiave di questo protocollo è infatti proprio quella di funzionare sulla stessa infrastruttura di rete dell’attuale Internet e utilizzare gli stessi dispositivi e le stesse applicazioni di rete già sul mercato.
Nonostante Fast TCP funzioni benissimo anche con le tradizionali connessioni, il suo utilizzo è stato pensato soprattutto per adeguare l’attuale protocollo TCP alle esigenze delle reti di nuova generazione, le stesse che dovranno presto trasportare milioni di chiamate vocali non compresse su di un singolo percorso o supportare grandi esperimenti scientifici che richiederanno il trasferimento on demand di gigabyte o terabyte di dati.