ZeoSync promette l'ultracompressione

L'azienda sta lavorando su un sistema di compressione che ritiene renderÓ obsoleti i precedenti. Comprimendo il giÓ compresso, per ottenere stringhe ultradense

West Palm Beach (USA) - ZeoSync, centro di ricerca in Florida, ha annunciato di essere riuscita a ridurre l'espressione di sequenze di informazioni random. Pur riusciendoci solo con stringhe di bit molto ridotte, i ricercatori ritengono di poter superare questa limitazione e ottimizzare gli algoritmi, fino a portare a quelli che definisce "drastici cambiamenti" nel modo in cui i dati vengono conservati e trasmessi.

Gli sviluppi fin qui ottenuti, si legge in una nota, nascono da un approccio che mira a ridurre informazioni giÓ compresse attraverso molte iterazioni di riduzione. Ne risulterÓ, secondo i ricercatori, un sistema chiamato TunerAccelerator che condenserÓ le capacitÓ di produrre sequenze random e quelle di encodare queste stringhe all'interno di altre combinazioni.

"Quello che abbiamo sviluppato - ha spiegato Peter St. George, CEO di ZeoSync - Ŕ un nuovo concetto nella teoria della comunicazione. Attraverso la manipolazione dell'informazione binaria e la traslazione in entitÓ matematiche multidimensionali complesse ci aspettiamo di raggiungere l'enorme capacitÓ del signaling analogico con i benefici dell'integritÓ strutturale delle comunicazioni digitali. Riteniamo questo sviluppo un passo significativo nel superare i limiti storici delle comunicazioni digitali".
Secondo ZeoSync, i risultati del lavoro porteranno alla capacitÓ di comprimere non pi¨ ad una ratio di dieci a uno ma di centinaia ad uno. Con conseguenze naturalmente importanti sull'intera gestione dei dati nel mondo digitale.

Va da sÚ, come Ŕ stato spiegato nella conferenza di presentazione dei risultati, che prima di tradurre questo lavoro in una tecnologia definitiva capace di reggere l'impatto con le necessitÓ di conservazione e trasmissione dei dati ci potrebbero volere ancora anni.
TAG: ricerca
80 Commenti alla Notizia ZeoSync promette l'ultracompressione
Ordina
  • MA NON SPARIAMO CAZZATE!
    Se hanno trovato qualcuno che li finanzi sono contento per loro..
    non+autenticato
  • il rumore creato da una sequenza di bit random non è standardizzabile o predicibile!
    non+autenticato
  • imho, credo che ci sia un modo di superare i limiti della compressione lossless: non sarebbe difficile identificare stringhe di bit anche molto lunghe che ricorrono di frequente in un dato tipo di file (o anche in più tipi) e tradurle in pochissimi bit che non contengano la vera informazione ma che indirizzino il programma di compessione decompressione semplicemente a riscrivere tali informazioni, che registra nel suo codice e non nel file compresso. Per assurdo, se ho un .doc vuoto potrei comprimerlo con un rapporto di migliaia a 1, mi basta che il file compresso contenga: 1 un codice di qualche bit che mi dicano: questo era un file .doc 2 uno 0 che mi dica che il file è vuoto.
    Non sto parlando solo degli header e dei frames dei file, (spec. con la programmazione modulare che va di moda da qlche anno) vengono create sequenze di bit molto comuni in diversi file dello stesso tipo, (anche negli eseguibili e file già compressi, le bestie più dure), che potrebbero essere semplicemente sostituite da un codice di pochi bit che le descriva e ricostruite dal programma di compressione che dispone delle sequenze non compresse, senza che queste debbano essere inserite nel file compresso.
    Questo appesantirebbe spec. in termini di volume il programma di compressione decompressione, e il lavoro più lungo sarebbe certamente quello di individuare le sequenze che si ripropongono con una certa frequenza in ciascun tipo di file, inoltre andrebbe sicuramente affiancato da un algoritmo di compressione tradizionale.
    non+autenticato
  • Piccoli brutti programmatori senza fede, come osate mettere in dubbio la parola di un tale mago?
    Forse osate mettere in dubbio anche i miei poteri magici? Guardate che vi trasformo tutti in maiali grufolanti!!!

    Anatema!! anatema!!! chi non ci crede non dorme più!!




    non+autenticato
  • Chi assicura che l'entropia delle sorgenti *REALI*
    non permetta la compressione di 100 a 1 ?

    Certo per varie sequenza di 100 bit è banale dimostrare che abbiano una entropia maggiore dell'1%

    Ma se le sequenze sono molto lunghe, la cosa cambia.

    Ad esempio se scrivo tutta la divina commedia in ascii, chi mi assicura che l'entropia del file
    che ottengo sia maggiore del'1% ?

    Tutto dipende dalla conoscenza della sorgente
    *REALE*. Se per assurdo si riuscisse a modellare
    una sorgente che riproduce tutti i libri scritti dagli uomini, ieri oggi e domani, si potrebbe
    comprimere gli stessi con un numero limitato di
    bit (512 basterebbero?)

    Mi sembra che qui si dia per scontato che i dati
    *REALI* da comprimere abbiano una elevata
    entropia.

    non+autenticato
  • "...entità matematiche multidimensionali complesse"

    anni fa (ehhh, l'università...) il mio prof di Teoria dei Segnali lo chiamava "OPERATORE MIRACOLO"

    :)

    byez
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
1 | 2 | 3 | 4 | Successiva
(pagina 1/4 - 16 discussioni)