Samsung svela un SSD col turbo

Il produttore coreano sfodera un prototipo di un disco a stato solido da 256 GB che ambisce a stabilire nuovi primati di velocità. Arriverà sul mercato entro la fine dell'anno

Taipei - Confermando quanto annunciato lo scorso febbraio, Samsung ha svelato il prototipo di un disco a stato solido (SSD) da 256 GB che conta di lanciare sul mercato entro la fine dell'anno.

Il drive ha le dimensioni standard di un tipico hard disk per notebook e adotta l'interfaccia SATA: ciò lo rende perfettamente idoneo a rimpiazzare i comuni dischi magnetici da 2,5 pollici, ossia quelli montati sulla quasi totalità degli odierni notebook.

Samsung afferma che, nella sua categoria, il proprio SSD è il più veloce al mondo: le performance dichiarate, che nei trasferimenti sequenziali sono di 200 MB/s in lettura e 160 MB/s in scrittura, sopravanzano agevolmente quelle dei più veloci hard disk da 15mila giri al minuto. Attualmente gli SSD per notebook più veloci non superano i 130 MB/s in lettura e i 100 MB/s in scrittura.
Questi livelli di performance appaiono ancor più interessanti se si considera che il futuro SSD di Samsung utilizzerà chip NAND flash multi-level cell (MLC), una tecnica che consente ai produttori di incrementare la densità di archiviazione delle memorie flash senza ricorrere a processi produttivi più costosi. Generalmente i chip MLC hanno performance inferiori ai più costosi Single-Level Cell (SLC), ma a quanto pare l'evoluzione tecnologica in questo settore sta facendo passi da gigante.

Il drive utilizzerà anche la tecnologia wear levelling, che prolunga la vita dei chip flash distribuendo omogeneamente le scritture su tutte le celle di memoria disponibili: ciò evita che il sistema operativo scriva sempre sulle stesse celle, esaurendone rapidamente la vita utile (oggi dichiarata intorno ai 50-100mila cicli di riscrittura).

Il nuovo SSD, di cui Samsung dovrebbe rilasciare anche una versione da 1,8 pollici, è atteso sul mercato verso la fine dell'anno ad un prezzo ancora sconosciuto.

(fonte immagine)
34 Commenti alla Notizia Samsung svela un SSD col turbo
Ordina
  • dischi ssd piu veloci era ora ma il punto negativo
    e il prezzo. un disco ssd 260 gb costa quanto un pc
    intero e con questa crisi chi e disposto a comprarlo.
    Non riesco a capire il costo elevato dato che viene fatto
    da robot in serie, e non da operai a mano.
    non+autenticato
  • Intanto l'eeepc usa le "innovative" soluzioni hardware nand sd da pochi giga... e non si tratta di economicita' quandanche le decine di giga te le tirano dietro (sotto i 10 euro al dettaglio) e dietro l'angolo ci sono le centinaia di giga...
    non+autenticato
  • Se ho capito bene, dovremo dire, finalmente addio ai programmi (di speculazione) della deframmentazione o sbaglio?
    1) I deframmentatori accorcerebbero la vita delle SSD.
    2) Non ci sarebbero significativi miglioramenti nelle performance.
    -----------------------------------------------------------
    Modificato dall' autore il 27 maggio 2008 16.21
    -----------------------------------------------------------
  • - Scritto da: psychok9
    > Se ho capito bene, dovremo dire, finalmente addio
    > ai programmi (di speculazione) della
    > deframmentazione o
    > sbaglio?
    > 1) I deframmentatori accorcerebbero la vita delle
    > SSD.

    Sì.

    > 2) Non ci sarebbero significativi miglioramenti
    > nelle
    > performance.

    ?? La deframmentazione si basa sul filesystem, non sulla struttura fisica del disco. Già oggi molti deframmentatori permettono di deframmentare anche le flash USB....
    non+autenticato
  • secondo me nn ce ne sarà bisogno, perchè non ci sono testine che si spostano e dischi che ruotano: dunque la deframmentazione non migliorerebbe le prestazioni (IMHO)
  • La deframmentazione riguarda Windows e basta!
    non+autenticato
  • - Scritto da: Lucas
    > La deframmentazione riguarda Windows e basta!

    http://www2.lut.fi/~ilonen/ext3_fragmentation.html

    pdate 2007-12-19 The configurator in the script was missing one include, which prevented it from working in Redhat systems. The fibmap.pl script has now been updated.
    Measuring fragmentation of ext3 in linux

    It has been often said that ext3 and other filesystems in Linux do not suffer from fragmentation and defragmentation is therefore not needed. However, one system I am using was becoming slower and slower all the time (for example, doing apt-get update/upgrades) and I was suspecting heavy fragmentation of the root-partition. Then I stumbled on the next problem: apparently no one has even bothered to make any tool for measuring the fragmentation level of filesystems in Linux, apart from the one percentual value reported by e2fsck. Of course, when the general consensus is that fragmentation is not an issue, why make a tool for measuring it...

    I found one program, fibmap. It works (compiling with GCC-4.1 required a couple of fixes), but the output is a bit too cryptic for a random person (in this case, me). The most useful value the Windows defragmentation programs (for example Diskeeper) report is IMHO the number of non-contiguous blocks per file. For example a file with 1000 non-contiguous blocks means that the harddrive will have to make 1000 seeks when reading the file, and if that file is, say, 50MB in size the time wasted on seeking instead of reading will be very significant. If there are many files with hundreds/thousands non-contiguous blocks in a filesystem, fragmentation is quite bad and will affect the performance. Instead of changing fibmap to output the values I wanted, I decided to kludge together a perl-script. The script is based on this example.

    The script can be downloaded here, fibmap.pl. The script must be run as root, and it takes as input names of files or directories to (recursively) measure for fragmentation. The output is like this:

    $ ./fibmap.pl /usr/

    1052   15.7MB    15.28KB /usr/lib/libgcj.so.6.0.0
       868   18.3MB    21.65KB /usr/lib/wireshark/libwireshark.so.0.0.1
       840   20.7MB    25.27KB /usr/lib/libgcj.so.7.0.0
       742   19.9MB    27.48KB /usr/share/gnome-applets/gweather/Locations.xml
       467    4.2MB     9.31KB /usr/share/wireshark/wireshark/wireshark-filter.html
    .
    .
    .
    Non-contiguous:
    Files 12670 (1713.5MB, avg. 138.49kB per file), blocks 79184, average block 22.16kB
    Contiguous:
    Files 76846 (351.0MB, avg. 4.68kB per file)

    The first number is the number of non-contiguous blocks in the file, the second the size of the file, and the third the average length of contiguous blocks. The first file, /usr/lib/libgcj.so.6.0.0, is divided to 1052 blocks, each averaging 15.28kB. Needless to say, reading such file is not stellarly fast. End of the output displays some information for all tested files.

    So in this case the partition was heavily fragmented, but that is not very surprising because the partition is a bit too small and has therefore been always nearly full. Other filesystems I measured were not nearly as bad, but most files were still in quite small pieces, say, around 100kB per contiguous block on average.

    Disclaimer: the script may be horribly broken and running it on your system may cause cataclysmic destruction. In more serious tone, the script is not really polished and is provided only in the hope it may be useful to someone. Anyway, the script worked fine for me in Debian unstable (up-to-date in 2006-09-05) with kernel 2.6.18-rc5 on ext3 filesystems. Other filesystems should work provided the IOCTL used for measuring block numbers, FIBMAP, is available for them.
    non+autenticato
  • Spiacente deluderti ma quella "deframmentazione" è diversa da quelle di NTFS !
    Rotola dal ridere

    Ti sei fatto ingannare dal fatto che si usa la stessa parola, infatti EXT scrive già in modo ordinato (salvo il caricamento sistema che avviene all'inizio) non disordinato come NTFS.
    A bocca aperta

    S'esegue solo quando si carica il sistema poi per 20anni e più NON si deve fare, comunque serve per velocizzare il FS per usi particolari.

    Fan Linux

    Ciao
    non+autenticato
  • ..e le prestazioni tornano quelle di qualsiasi altro HD, ovvero quelle di un floppy disk
  • contenuto non disponibile
  • - Scritto da: napodano
    > ..e le prestazioni tornano quelle di qualsiasi
    > altro HD, ovvero quelle di un floppy
    > disk


    gli hd SSD non devono spostare la testina per la lettura, quindi le prestazioni in caso di lettura sequenziale o non sequenziale sono abbastanza simili e nettamente superiori a quelle degli HD normali.

    in più tra i vantaggi degli hd ssd abbiamo:
    -rumore zero (non ci sono parti in movimento)
    -consumi molto più ridotti
    -calore prodotto minore

    non sono proprio cose trascurabili, specialmente per i portatili o per i pc utilizzati come media station
    non+autenticato
  • >
    > in più tra i vantaggi degli hd ssd abbiamo:
    > -rumore zero (non ci sono parti in movimento)
    > -consumi molto più ridotti
    > -calore prodotto minore


    e se ti cade il portatile non bestemmi sperando che l'HD si sia spaccato come al solito..........
    non+autenticato
  • veramente... è questo il vantaggio degli SD, non hanno seek time, e il file può essere deframmentato quanto uno vuole e non ci dovrebbe essere nessuna diminuzione delle prestazioni... poichè non occorre aspettare un giro dei piattelli per leggere una informazione che magari è un settore prima, i vantaggi sono evidenti... anzi, visto che comunque su un computer qualsiasi ci sono decine di letture/scritture contemporanee e fisicamente l'HD non ne può fare più di quelle che sono le testine fisiche... direi che il vantaggio è evidente.. anche se iltransfer rate fosse minore.. il vantaggio... sarebbe evidente...
    non+autenticato
  • grazie a tutti per le spiegazioni. però cacchio oh, mi avete rovinato la battuta. nguè.
  • A me piu' che la velocità, mi interesserebbe che lavorassero sulla resistenza nel tempo degli archiviatori di dati. Si parlava che i Dvd o Cd durassero anni ed anni, abbiamo tutti visto che cosi' non è !
    non+autenticato
  • - Scritto da: Claudio
    > A me piu' che la velocità, mi interesserebbe che
    > lavorassero sulla resistenza nel tempo degli
    > archiviatori di dati. Si parlava che i Dvd o Cd
    > durassero anni ed anni, abbiamo tutti visto che
    > cosi' non è
    > !

    Dipende che DVD+-R/RW e CD-R/RW compri... Certo quelli indiani senza marca da 5-10cents non valgono quanto dei Verbatim DVD-R da 25-30cents...

    Io ho CD-R di marche come Philips stampati nel lontano 1993 ancora perfettamente funzionanti e leggibili.
    non+autenticato
  • idem: dipende anche da come si conservano. La prossimità di un termosifone ad esempio potrebbe accorciarne la vita.
  • ...mi sembrano un po' pochini.... se uno ha l'HD pieno all'80% (come il mio), l'algoritmo che distribuisce le nuove scritture nelle zone libere deve accontentarsi di un 20% di spazio (mica posso spostare in continuazione i file esistenti!).... per cui quel 20% sarà sottoposto a stress maggiore rispetto al restante 80%....
    Il risultato? Continuando a lavorare su un 20% di spazio libero l'hd si deteriora 5 volte più velocemente, ed alla fine mi troverò con un hd con l'80% di memorie valide ed il 20% di celle di memoria esaurite!!!

    PS: Mi sono spiegato come un cane ma spero di aver reso l'idea! A bocca aperta
    PPS: Spero anche di sbagliarmi, non vedo l'ora di buttare gli HD attuali e passare agli SSD!! Con la lingua fuori
    non+autenticato
  • E' comunque un numero molto basso, si parlasse di milioni starei più tranquillo.

    Penso che con queste cifre siano semplicemente inaffidabili, già avviati alla loro morte.
    non+autenticato
  • - Scritto da: bubu
    > ...mi sembrano un po' pochini....

    Perché non studi come funzionano gli algoritmi di WL prima di dare giudizi?
    non+autenticato
  • > Perché non studi come funzionano gli algoritmi di
    > WL prima di dare giudizi?

    Non ho dato giudizi, ho fatto un esempio.... se di un disco mediamente ne utilizzo solo una percentuale (ad es il 20%) xchè il resto è pieno, mi sembra ragionevole pensare che quella piccola parte sia la prima a degradarsi.....

    Se tu ne sai di più di "algoritmi WL" illuminaci, o vate.... Con la lingua fuori
    non+autenticato
  • Infatti. Non si può cavar sangue da una rapa. Io non potrei utilizzare questi dischi, allo stato attuale delle cose. Con un HD pieno al 90% di materiale mai modificato o cancellato, ma solo letto, il restante 10% del disco si consumerebbe relativamente in fretta in barba ai "brillanti" algoritmi di distribuzione dei dati. Sempre con l'uso che ne farei io, cancellando e riscrivendo assai spesso quel restante 10% in modo pressocchè completo in una volta sola il disco durerebbe poco più di un anno. 1.000.000 di riscritture garantite sulla stessa cella comincerebbe già ad essere assai più rassicurante.
    non+autenticato
  • - Scritto da: Freewilly
    > Infatti. Non si può cavar sangue da una rapa. Io
    > non potrei utilizzare questi dischi, allo stato
    > attuale delle cose. Con un HD pieno al 90% di
    > materiale mai modificato o cancellato, ma solo
    > letto, il restante 10% del disco si consumerebbe
    > relativamente in fretta in barba ai "brillanti"
    > algoritmi di distribuzione dei dati. Sempre con
    > l'uso che ne farei io, cancellando e riscrivendo
    > assai spesso quel restante 10% in modo pressocchè
    > completo in una volta sola il disco durerebbe
    > poco più di un anno. 1.000.000 di riscritture
    > garantite sulla stessa cella comincerebbe già ad
    > essere assai più
    > rassicurante.

    Per eguagliare un HDU direi che le celle di memoria delle flash dovrebbero reggere almeno 500milioni di cicli di scrittura per avere un tempo di vita accettabile.
    Altrimenti basta un uso medio con file video ed audio che la durata degli SSD diventa mediocre.
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
Successiva
(pagina 1/2 - 8 discussioni)