Canon pensa ai super dischi da 1000 GB

I labs del colosso giapponese hanno svelato un nuovo materiale che promette densità di memorizzazione stratosferiche

Tokyo (Giappone) - Canon sostiene di poter contribuire entro pochi anni a rivoluzionare il mercato dello storage portando la densità di memorizzazione dei dischi magnetici comunemente utilizzati negli hard disk a valori fino a 10 volte superiori a quelli attuali.

I laboratori di ricerca di Canon hanno infatti svelato un nuovo materiale capace di supportare 500 Gbit per pollice quadrato, circa 5 volte più di quanto possa vantare l'hard disk più tecnologicamente avanzato attualmente in commercio.

Gli obiettivi di Canon sono quelli di arrivare entro la fine del decennio a raddoppiare questa densità e stipare su di un unico piatto ben 1000 Gbit per pollice quadrato che permetterebbe di produrre agevolmente hard disk da oltre 1000 GB.
I ricercatori del colosso giapponese hanno sviluppato un substrato costituito da elementi magnetici e formato da microscopici fori, chiamati "nanoholes", al cui interno si trovano particelle di cobalto, nichel e altre leghe in grado di trattenere le cariche magnetiche in modo molto più efficiente rispetto ai materiali utilizzati oggi.

Canon sostiene di esser in grado di raggiungere alte densità di memorizzazione molto più in fretta dei propri avversari, ancora impegnati, a suo dire, a cercare di spremere fino all'ultima goccia le tecnologie in loro possesso. Il processo di produzione di questi nuovi dischi, inoltre, dovrebbe rivelarsi anche più economico.
TAG: hw
24 Commenti alla Notizia Canon pensa ai super dischi da 1000 GB
Ordina
  • Concordo sui timori di eventuali scan disc di durata infinita (magari i produttori software si ingegneranno atrovare algoritmi più veloci), ma dire che all'utente domestico non serviranno mai 1000 GB è un eresia.
    Il mio primo Pc era nel 1990 un 386 a 25 Mhz con ben 2 Mb di Ram e 40 Mb di HD. Se non sbaglio oggi il taglio medio/piccolo di un Hd è 40 Gb (1000 volte tanto)e 128/256 Mb ( 64/128 volte tanto) sta diventando lo standard di Ram. Pensare che nel 1995 pagai per 16 schifosi Mb di ram £ 1.400.000.
    Anzi già (ma tanto stiamo parlando di tecnologie che vedranno la commercializzazione fra 3 - 4 anni) adesso volendo utilizzare un Pc come videoregistratore digitale 1000 Gb non sono poi così tanti.
    Meditate gente, meditate
    non+autenticato


  • - Scritto da: Zaghi Fabio
    > Concordo sui timori di eventuali scan disc
    > di durata infinita (magari i produttori
    > software si ingegneranno atrovare algoritmi
    > più veloci), ma dire che all'utente
    > domestico non serviranno mai 1000 GB è un
    > eresia.
    > Il mio primo Pc era nel 1990 un 386 a 25 Mhz
    > con ben 2 Mb di Ram e 40 Mb di HD. Se non
    > sbaglio oggi il taglio medio/piccolo di un
    > Hd è 40 Gb (1000 volte tanto)e 128/256 Mb (
    > 64/128 volte tanto) sta diventando lo
    > standard di Ram.

    Concordo pienamente

    > Pensare che nel 1995 pagai
    > per 16 schifosi Mb di ram £ 1.400.000.
    > Anzi già (ma tanto stiamo parlando di
    > tecnologie che vedranno la
    > commercializzazione fra 3 - 4 anni) adesso
    > volendo utilizzare un Pc come
    > videoregistratore digitale 1000 Gb non sono
    > poi così tanti.

    Infatti, per un uso veramente completo del pc 1 Terabyte di storage non è molto....Tra film, giolchi, filmati e cazzate varie 1 Terabyte vola via in un attimo!
    non+autenticato
  • Concordo anche io, in un futuro in cui si riesca
    ad offrire la possibilita' di manipolare
    grosse quantita' di dati multimediali
    non ci sono dubbi, serviranno tera e tera di
    HD ma anche interfacce molto veloci per
    caricare in memori (tanta memoria...) i grossi
    file e ovviamente processori molto potenti,
    fino ad ora i PC in commercio morirebbero
    fanno ridere in confronto a quello che ci vorrebbe
    per fare certe cose, parlo anche di grosse simulazioni, all'universita' certe volte mi tocca
    aspettare una settimana! (e alle volte si riempe l'hd e me lo prendo....
    non+autenticato
  • .....quando si affermera' il formato HDTV anche nelle telecamere amatoriali e non si vorranno usare algoritmi di compressione per archiviare i propri video
    non+autenticato
  • Ma come lo fanno il backup di sta roba???
    In sei giorni??

    Bah!!!

    Io ho ancora 10 Gb di dischi mooooolto spazio libero...
    non+autenticato
  • - Scritto da: apaella
    > Ma come lo fanno il backup di sta roba???
    > In sei giorni??
    >
    > Bah!!!
    >
    > Io ho ancora 10 Gb di dischi mooooolto
    > spazio libero...

    Semplice.
    Quando è in vendita, ne compri due
    e ne fai uno il backup dell'altro...
    non+autenticato
  • > Semplice.
    > Quando è in vendita, ne compri due
    > e ne fai uno il backup dell'altro...

    Io preferiso assegnare quote disco agli utenti... cosi le loro cazzate se le cancellano, se poi e' il disco aziendale ad essere cosi grosso allora... forse ci sta bene
    non+autenticato
  • Ne occupera' piu' di meta' con i sistemi anti utonto, tranquilliSorride
    non+autenticato
  • Se si spegne male il PC e ti tocca fare ScanDisk devi aspettare almeno 4 ore prima di poter riprendere a lavorare...
    non+autenticato


  • - Scritto da: Zappod
    > Se si spegne male il PC e ti tocca fare
    > ScanDisk devi aspettare almeno 4 ore prima
    > di poter riprendere a lavorare...

    Beh, il problema non si pone perché la decrepita FAT32 non potrebbe gestire un mostro simile.
    non+autenticato
  • - Scritto da: filesystem
    >
    > Beh, il problema non si pone perché la
    > decrepita FAT32 non potrebbe gestire un
    > mostro simile.

    A essere sincero, io l'unica cosa che trovo di
    buono in DOS/Windows è il file system. Non è
    massimamente efficiente, però non ha nessun
    problema critico. Non perde dati, se lo si usa
    ragionevolmente.

    La FAT32 non è poi tanto decrepita.
    Oggi sarebbe assurdo puntare su una FAT64,
    o comunque su un file system interamente a 64 bit,
    perché i registri della CPU sono comunque 32 bit,
    e quindi valori a 64 bit rallenterebbero il
    sistema a limiti intollerabili. SHLD, SHRD al
    posto di SHL e SHR... 10 cicli al posto di 1.
    Per non parlare di tutte le variabili a 32 bit
    che contengono il numero di cluster...

    Comunque, in 32 bit puoi mettere valori da zero
    a 2 alla 32esima, meno 1. Cioè da zero a
    4,295,967,295. Quattro miliardi di clusters da
    64 Kb ciascuno, valore ancora del tutto
    accettabile, indizzerebbero 256 mega-terabytes.

    E Per dividere in quattro miliardi di clusters
    un disco da 1 Tb come quello, basterebbero
    clusters di 512 bytes... figurati un po', cioè
    l'esatta dimensione di un settore standard.
    non+autenticato
  • in effetti un hd del genere credo sia fortemente consigliato partizionarlo alla grande (specialmente se c gira sopra win).
    non+autenticato
  • Che partizioni dovrei fare per ottimizzare l'allocazione di cluster? Per i piccoli files lo spazio fisico occupato sarebbe enorme? Potrei trovarmi a digitare ' Z: ' sul DOS, eh,eh...

    Bah...
    non+autenticato
  • Da quello che so la massima cluster size per NTFS 5.0 (ad esempio) e' 64KB per qualsiasi partizione sopra i 32GB.
    ciao
    non+autenticato
  • piu che altro servirebbero piu di 4 partizioni primarie senza boot manager...

    - Scritto da: Bluex
    > Che partizioni dovrei fare per ottimizzare
    > l'allocazione di cluster? Per i piccoli
    > files lo spazio fisico occupato sarebbe
    > enorme? Potrei trovarmi a digitare ' Z: '
    > sul DOS, eh,eh...
    >
    > Bah...
    non+autenticato
  • Metti Reiser e utilizza dimensioni variabili. ANche se forse con 32 Mb di file di log non indirizza tutto il disco, non so, non ho fatto il conto.
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
Successiva
(pagina 1/2 - 7 discussioni)