Jump to content
papafoxtrot

Solid State Drive

Recommended Posts

Come molti sapranno i solid state drive sono unità di archiviazione basate su memoria flash, in grado di raggiungere prestazioni estremamente elevate, se rapportate a quelle dei migliori hard disk meccanici in circolazione.

Come si dice ormai da molto tempo gli hard disk tradizionali, costituiti da piatti rotanti cheimmagazzinano i dati su di un supporto magnetico, costituiscono per i computer un importante collo di bottiglia.

Ogni operazione che debba essere svolta su file pesanti, che si trovano su un hard disk richiede, oltre al tempo necessario a svolgere effettivamente l'operazione, il tempo perché i dati siano trasferiti dall'hard disk alla memoria centrale. Questa necessità di trasferimento da e poi verso l'hard disk può rallentare lo svolgimento di un elaborazione in maniera particolarmente pesante.

Oltre a ciò, quando ci si trova a lavorare con un computer, l'intera esperienza quotidiana risulta rallentata dalle prestazioni dell'hard disk. L'avviamento e lo spegnimento del sistema, l'apertura di ogni applicazione ed ogni file, comportano accessi al disco che sono diventati drammaticamente lenti relativamente alle capacità di elaborazione dei sistemi attuali.

L'hard disk è infatti l'unico componente che da molti anni ormai non conosce un sostanziale miglioramento delle sue prestazioni. Il transfer rate aumenta gradualmente per effetto dell'aumento di densità di informazione sui piatti, la capacità è cresciuta a dismisura nel giro di pochi anni fino a superare di buon grado le necessità della maggior parte degli utenti. I tempi di accesso tuttavia sono rimasti elevatissimi, essendo legati a fattori di tipo meccanico, quali la necessità di ruotare meccanicamente un piatto per accedere uno dopo l'altro ai dati in esso contenuti e di spostare le testine al fine di spaziare in direzione radiale l'area del disco. Basta rapportare il tempo di accesso medio di un hard disk con quello della memoria centrale pe rendersi conto di come tale parametro possa influenzare le prestazioni di tutto il sistema non appena si renda necessario accedere ad u dato contenuto in esso. Ebbene il tempo di accesso di una ram si misura in nanosecondi, mentre quello di un hard disk ha ordine di grandezza dei millisecondi. Per un comune dsco da 7200rpm già 12ms sono coniderati un eccellente tempo di accesso, ma non è raro incontrare dischi molto moderni che fanno segnare anche 17ms di access time. Le migliori unità in circolazione, che hanno velocità di rotazione di 15000 rpm non scendono al di sotto dei 5mn.

Si rende dunque necessario abbandonare completamente la tecnologia fino ad ora sviluppata per l'archiviazione dei dati, non in grado di garantire prestazioni in linea con il resto dell'hardware a disposizione e non più in grado di migliorare sensbilmente. Considerando la struttura di un disco rigido è difficile credere a quale grado di affidabilità e precisione questa tecnologia sia giunta, ma riesce difficile anche pensare come questa sia resistita nel tempo al progredire della tecnologia basata sul silicio, sopravvivendo e prosperando fino ad oggi.

Le unità a stato solido sono dunque costituite da chip di memoria NAND flash, in grado di garantire prestazioni comparabili con quelle dei chip DRAM oggi utilizzati ma con in più due importanti caratteristiche:

1) Elevate densità di archiviazione, necessarie per costruire un unità di storage soddisfacente.

2) La capacità di conservare l'informazione anche in assenza di un'alimentazione. Le celle DRAM infatti costituiscono una memoria volatile; devono essere mantenute sotto tensione per mantenere l'informazione.

D'altro canto i chip NAND hanno la caratteristica di non poter essere riscritti all'infinito. Dopo un certo numero di riscritture essi perderanno la loro capacità di acquisire l'informazione.

Vedremo come queste, ed altre caratteristiche delle unità a stato solido, ci porteranno a cambiare il modo in cui sia noi, sia i sistemi operativi gestiremo lo storage dei dati.

Per cominciare propongo la lettura di una serie di articoli online che vi guideranno a comprendere quali sono le problematiche e le potenzialità legate a questi dischi.

Il problema delle prestazioni

http://www.tomshw.it...?guide=20090427

http://www.hwupgrade...rese_index.html

Un'analisi completa sulla logica dei dischi a stato solido, caratteristiche e prestazioni di alcuni modelli fondamentali

http://www.anandtech...doc.aspx?i=3631

http://www.anandtech...aspx?i=3531&p=1

http://www.pcper.com...cle.php?aid=766

SSD INTEL

Intel X-25M G1

http://www.anandtech...doc.aspx?i=3403

Intel X-25M G2

http://www.anandtech...aspx?i=3607&p=1

http://www.techrepor...icles.x/17269/1

Aggiornamento firmware per Intel X-25M g2: supporto a trim e wiper tool.

http://www.anandtech...aspx?i=3667&p=1

Intel X-25E

http://www.tomshw.it...?guide=20090211

SSD CONTROLLER SAMSUNG

Samsung FB-22J

http://www.hwupgrade...tici_index.html

SSD CONTROLLER SANDFORCE

http://anandtech.com...aspx?i=3702&p=3

http://www.anandtech...rives-are-equal

OCZ Vertex 3 PRO (controller SF-2500)

http://www.anandtech.com/show/4159/ocz-vertex-3-pro-preview-the-first-sf2500-ssd

OCZ Vertex 2 (controller SF-1200)

http://www.anandtech.com/show/2899

OCZ Vertex Limited Edition (controller SF-1500)

http://anandtech.com/show/2944

OCZ Agility 2 (controller SF-1200)

http://www.anandtech...h-mp-firmware/1

Corsair Force (controller SF-1200)

http://www.anandtech...00-is-very-good

COMPARATIVE

19-2-2010

http://anandtech.com/show/2944/1


Edited by papafoxtrot

Share this post


Link to post
Share on other sites

Come probabilmente avrete capito ci sono sostanzialmente due problematiche che riguardano i solid state drive:

- la prima è una perdita di prestazioni nel momento in cui si deve sovrascrivere una cella di memoria già occupata, e che porta ad un decadimento delle prestazioni in writing durante la vita del disco;

- la seconda riguarda la morte delle celle di memoria nel momento in cui oltrepassano un certo numero di cicli di riscrittura.

E' bene sottolineare come siano sostanzialmente i dischi dotati di memoria MLC (multi level cell) a soffrire di questi due problemi. Dischi che fanno uso di memoria single level cell, quali gli intel X-25E e gli OCZ vertex EX soffrono il problema in maniera trascurabile. D'altra parte per ragioni di costi i dischi che vanno diffondendosi fra gli utenti comuni sono gli MLC, riservando i SLC (capaci fra l'altro di prestazioni in termini di I/O molto più elevate) sostanzialmente ad ambiti server/workstation di alto livello. Un buon disco MLC oggi si porta a casa per meno di 200 euro, mentre a parità di capienza un SLC può costare dalle 3 alle 5 volte di più.

Per quanto riguarda la perdita di prestazioni essa viene risolta semplicemente svuotando effettivamente la cella al momento della cancellazione del dato in essa contenuto, e non semplicemente lasciandovi il dato scritto fino a nuova riscrittura. Ciò è possibile attraverso l'introduzione di un comando (TRIM), fornito dal sistema operativo (sarà supportato a partire da windows 7) al controller del disco. In alternativa, ed in attesa del trim, alcuni produttori quali OCZ hanno introdotto firmware che eseguono la stessa operazione in automatico nel momento in cui il disco viene a trovarsi in stato di IDLE. In sostanza si tratta di una pulizia del disco quando esso non è occupato in altre operazioni. Almeno sui dischi OCZ tale procedura prende il nome di garbage collection (raccolta differenziata :))

Il problema del limite di riscrittura delle celle trova una parziale soluzione negli algoritmi di wear leveling: sostanzialmente il controller dell'unità procede scrivendo i dati su celle sempre libere, e non riscrivendo sempre sulla stessa cella. Solo quando tutto il disco sarà stato scritto almeno una volta si procederà da capo. In questo modo il numero di cicli di riscrittura subiti dalle celle, soprattutto se il disco viene mantenuto abbastanza libero, cala drasticamente. Ricordo come al termine dei suoi cicli di riscrittura una cella non muoia completamente, semplicemente non sarà più riscrivibile. Sarà sempre possibile leggerne il contenuto. Il pericolo di perdita di dati dunque non sussiste.

Il numero di cicli di riscrittura utili stimato per una memoria MLC è di 10000, che sale a 100000 cicli nel caso di una memoria SLC. Si capisce come su una SLC si possa andare avanti a riscrivere tutto il disco giorno e notte per anni prima che questo diventi "non più sovrascrivibile". Per una memoria basata su MLC non è proprio così ma si può tranquillamente vivere tranquilli senza la preoccupazione che entro pochi mesi il disco da 200-300 euro diventi così vecchio da non poterci neanche scrivere sopra...

Per lo stesso motivo, una volta che viene rilevata la presenza di un unità a stato solido, i moderni sistemi operativi (windows Vista e windows Seven) disattivano su di esso la deframmentazione prevista periodicamente. Si tratterebbe infatti di un inutile stress per le celle di memoria, che hanno comportanto fra l'altro ìla definitiva soluzione al problema dei tempi di accesso ai file, rendendo del tutto superflua tale procedura.

Raccomando ad ogni modo una precauzione: non usare drive di sistema MLC come dischi per la memoria virtuale o gli skratch files, sebbene questo potrebbe apparire uno degli usi più proficui di tali dischi. A tali compiti si potrà devolvere un disco SLC, se il carico di lavoro ne giustificherà la spesa, un MLC acquistato appositamente, o un tradizionale hard disk meccanico (o raid di essi), eventualmente un velociraptor.

Un disco MLC rimane infine un disco eccellente per l'installazione del sistema operativo e dei software, ed eventualmente per il deposito di documenti che richiedano molteplici e allo stesso tempo veloci accessi simultanei...

Come avrete visto da alcune recensioni qui sopra un buon SSD non teme confronti con nessun tipo di hard disk meccanico, singolo o in raid. La differenza sostanziale si vede nella altenza, nel tempo di accesso, e negli IO/sec, ma anche la lettura e in alcuni casi la scrittura sequenziali sono da primato. Al prezzo cui ora si trovano gli intel X-25M G2 80Gb (200 euro circa), e gli OCZ vertex (130 euro per il 30Gb, meno di 200€ il 60Gb) diviene difficile consigliare un wd velociraptor da dedicare al sistema operativo.


Edited by papafoxtrot

Share this post


Link to post
Share on other sites

Una tabella esplicativa: riporta le principali caratteristiche dei più diffusi SSD attualmente in commercio (1-9-2009)

post-12897-1251799540_thumb.png

GLi SSD KIngston: sono delle unità prodotte da terzi e rimarchiate e vendute da Kingston. E' bene conoscere i vari modelli a che modello originale corrispondono. Possono essere un alternativa ad esempio ai dischi Intel, sempre poco reperibili.

Kingston SSDNow E Series (Intel X-25E) (32/64GB) - (Intel Controller, 50nm Intel SLC NAND, 16MB Cache)

Kingston SSDNow M Series (Intel X-25M G1) (80/160GB) - (Intel Controller, 50nm Intel MLC NAND, 16MB Cache)

Kingston SSDNow V+ Series (64/128/256GB) - (Samsung Controller, Samsung MLC NAND, 128MB Cache)

Kingston SSDNow V Series (Intel X-25M G2) 40GB) - (Intel Controller, 34nm Intel MLC NAND, 32MB Cache)

Kingston SSDNow V Series (64/128GB) - (JMicron Controller, Toshiba MLC NAND, No Cache)

__________________


Edited by papafoxtrot

Share this post


Link to post
Share on other sites

Esperienza personale

Dopo un paio di settimane di utilizzo posto alcune impressioni sul mio sistema:

Configurazione hardware:

Core 2 quad q9650 3,8GHz

6Gb ddr2 1015MHz 5-5-5-15

ATI hd3850

Intel X-25M G2 80Gb (sistema)

2x western digital caviar aaks 640Gb raid 1 (documenti)

Windows 7 professional x64 RTM

post-12897-1254653841_thumb.png

Devo dire che qualunque processo implicasse un utilizzo dell'hard disk (avviamento, caricamenti, installazioni, cache...) risulta sgravata di un peso immane. Sembra di andare in auto ed improvvisamente essersi accorti che c'era il freno a mano mezzo tirato...

Il tempo di caricamento del win7 dal post del bios è di 7 secondi: se si usa una password di sistema il tempo che trascorre dall'inserimento della stessa a quando compare il desktop, con il sistema pronto per lavorare, è di neanche due secondi, cronometro alla mano.

Per confronto lo stesso sistema installato su un raid 0 di wd caviar aaks640Gb impiegava rispettivamente:

28" per caricare il windows, dal post del bios al desktop

8" dall'inserimento della password

Ora i tempi di installazione ed apertura di 3ds max 2009:

L'installazione è stata eseguita leggendo i file estratti da un volume raid 0 che uso come cache (i soliti due wd caviar aaks). Probabilmente se avessi spostato la sorgente sull'ssd avrei ulteriormente dimezzato i tempi...

il sistema installato sul raid 0 ha installato il software il 1 minuto e 6 secondi

il sistema installato sull'SSD ha eseguito la stessa operazione in 35 secondi netti. Ripeto, in questa operazione molto probabilmente il collo di bottiglia era la lettura dal raid 0, potrebbe esserci ancora un ampio margine di miglioramento.

L'apertura di 3ds max 2009 richiede ora 8 secondi, contro i 28" del sistema installato su raid 0 e i 36" richiesti per eseguire la stessa operazione su windows XP x64. Ma quest'ultimo sistema era usato da mesi.

Per confronto l'apertura di un 3ds max 2009 installato su ramdisk (unità creata in ram) richiede sostanzialmente gli stessi 8 secondi, segno di come non sia a quel punto più il disco a rallentare l'esecuzione.

Photoshop CS4 si apre in 3 secondi. Non ho misurato i tempi sugli altri sistemi...

In modo più soggettivo ciò che ancora posso dre è che qualunque programma si apre a velocità impressionante, spesso non si riesce a leggerne il nome nella presentazione all'apertura.


Edited by papafoxtrot

Share this post


Link to post
Share on other sites

Aggiungo un po di materiale ;)

Solidata X1-64 (64 GB SLC)

LINK

Solidata X2-128 (128 GB MLC)

LINK

Confronto SSD : Intel, Mtron, Samsung, Solidata, Super Talent

LINK

Se volete vedere qualcosa di interessante e spiritoso eccovi un bel video realizzato per far vedere le potenzialità degli SSD

Share this post


Link to post
Share on other sites

È anche vero che su alcuni test effettuati a disco pulito la differenza tra dischi meccanici e ssd nelle normali operazioni quotidiane (avvio sistema, spostamento di file, zippaggio, esecuzione di programmi generalisti, etc.) è molto meno minore rispetto a quanto appare dai programmi di benchmark, che invece tendono a stressare di brutto il pezzo.

Attualmente la vera scelta di un ssd andrebbe fatta in base alla silenziosità zero che offre, parametro decisamente importante all'interno di una workstation da lavoro. Per il resto, sinceramente non vedo ancora la necessità di spendere oltre €200 per un buon disco invece che le oneste €60 per un ottimo Caviar Blue, soprattutto se ciò deve pregiudicare l'acquisto di una migliore scheda video o di componenti di raffreddamento più performanti, etc....

Share this post


Link to post
Share on other sites

Beh sinceramente, si tratti pure di una macchina da lavoro, prima di spendere 200 euro per mettere a tacere il disco di sistema se ne fanno di acquisti...

:D :D E poi non sono mica tutti malati come me! :D

Ad ogni modo come sempre ci saranno casi in cui la differenza si fa sentire tremendamente, e casi in cui sarà molto meno importante. Database server senza ssd ormai credo se ne facciano proprio pochi...

Poi se devo scegliere fra spendere 130 euro di un vraptor e 200 di un X-25m non ci penso due volte!

Share this post


Link to post
Share on other sites

niente male veramente, anche l'uttilizzo del 2,5% della cpu non è esagerato.

io con un adaptec 29160, e winxp (32bit) stavo dai5 al 10% della cpu... ma non arrivavo a 220mb/s.

dove lavoro ne dovrebbero comprare una batteria (per Oracle 10g) ma ormai mi sa che si aspetterà il 2010.

a parte i puri dati di trasferimento (immagino da un disco ad un altro o da settori diversi dello stesso disco?) la velocità di apertura dei programmi e del caricamento di windows come ti sembra? da sbavare?? :Clap03: :Clap03: :w00t:

Share this post


Link to post
Share on other sites

Guarda, per ora non ho ancora installato il sistema...Appena ho tempo mi metto, ma non ci sto mettendo molta fretta, anche perché il computer mi serve operativo...

Ne ho visto andare uno su un computer non mio e ci ho messo poco le mani, ma ti assicuro che era eccezionale.

Al di la dei dati sequenziali, che infatti non contano molto, sono gli IO/sec e l'operatività nel campo dei 4k che rendono questi dischi un altro pianeta rispetto ai meccanici... se scrivi 80Gb in sequenziale o scrivi 80Gb di file da pochi kilobyte poco ci manca che ci metti uguale, e questo rende gli ssd estremamente veloci!

Domani e dopodomani sarò via, per il fine settimana dovrei farvi sapere le mie impressioni.

Share this post


Link to post
Share on other sites

Intel che hanno gli IOPS più elevati e sono maggiormente veloci nel comparto 4Kb... Ovviamente si intende un disco di sistema dove l'operazione principale è soltanto la lettura e non già o non tanto la scrittura, perché in questo caso gli Intel sono un po' una ciofeca rispetto al controller Indilinx.

Share this post


Link to post
Share on other sites

Il discorso non è proprio così semplice:

L'intel è un disco da 80Gb sui 200 euro e non è niente male. Le prestazioni sono certamente eccellenti. Non è neanche giusto dire che è una ciofeca in scrittura perché ciò è vero solo sulla scrittura sequenziale. Se si analizzano le prestazioni nei 4K si vede come il disco mantenga la scrittura praticamente invariata passando da sequenziale a 4k e questo è straordinario. 80MB/s in scrittura sequenziale non sono un gran ché se paragonati ai 150 - quasi 200 che riesce a fare un disco con indilinx. Solo che passando ai 4k l'intel fa 60MB/s , per cui perde pochissimo, l'indilinx se non ricodo male ne fa 20. Questo credo lo si debba alla struttura a 10 vie, dunque fortemente parallela, del controller intel.

Ad ogni modo dischi con controller indilinx non sembrano esser niente male e anzi per metterlo come disco di sistema e velocizzare l'apertura dei programmi, l'avvio di windows e via discorrendo neanche ci si accorge della differenza.

Se si usano softyware che sviluppano IO elevati d'altro canto un intel è quasi d'obbligo e nei casi più impegnativi conviene anche pensare ad un SLC. A tal proposito sarei curioso di vedere i test sugli OCZ agility EX, che sono dischi SLC con controller indilinx ad un prezzo non cattivo.

Questo per due motivi:

1) Le celle SLC permettono valori di IO/sec estremamente elevati

2) Trovandosi nel caso di frequentissime riscritture le celle SLC mettono al sicuro da qualcunque possibilità di morte delle celle per raggiungimento dei limiti di riscrittura. Certo è un opzione abbastanza remota ma dispiacerebbe... Si deve anche dire che al prezzo degli intel SLC mi muoiono 3 MLC prima che me li ripago... :D

Al momento ad esempio ci sono certo gli intel sui 200 euro, ma sui 150 euro si trovano anche i super talent con controller indilinx (ultradrive GX) da 64Gb. Prestazionalmente parl.ando sono identici ai più conosciuti OCZ vertex. In sostanza sono lo stesso disco: stesso controller, stesso firmware (e giù qui abbiamo fatto il 95% delle rpestazioni del disco), stesse memorie, stesso disegno del pcb...

Personalmente stavo analizzando (non per me ovviamente) l'ipotesi di usare come disco per paging/skratch/cache un ssd anche abbastanza economico come un OCZ solid2 (che usa controller indilix e memorie intel 34nm, le stesse dell'X25m g2) sui 30-60Gb di capacità.

Certo conviene prima dotarsi dei 12Gb di ram, e solo dopo optare per questa soluzione. Bisogna vedere come si comportano i solid2 (ancora le prestazioni non sono del tutto certe) e quanto pesa il passaggio da operazioni in ram a operazioni su ssd. Certo le prestazioni calano drasticamente ma rispetto ad un disco meccanico dovrebbe esser comunque un altro mondo!


Edited by papafoxtrot

Share this post


Link to post
Share on other sites

Direi che la vera differenza se non ho capito male in questo momento si gioca sull'usura: se devo scrivere 10Mb di roba che il mio disco ne scriva 20 al secondo o 60 al secondo per me cambia quasi una fava... Mentre ad esempio il decadimento prestazionale da celle riutilizzate è stato un fattore che prima degli ultimi controller si faceva sentire non poco. Per non parlare del comando TRIM, che su sistemi operativi è di fatto d'obbligo se non si vuole bruciare il SSD in un decimo del tempo (e TRIM esisterà nativo solo su Win 7).

Non si dimentichi cmq che 10mila operazioni per cella sono in ogni caso tante: di fatto per esaurirle tutte completamente si supera felicemente sia la garanzia sia la vita probabile delle celle stesse (oltre che ad usura sono soggette a scaricamento), quindi il fatto che le SLC facciano 100mila operazioni non mi sembra che per noi utenti normali non server faccia davvero la differenza, se non appunto a livello prestazionale al massimo... Secondo un calcolo puramente teorico, un 320Gb con solo sistema e dati sopravviverebbe fino a 168 anni prima che le celle esauriscano i loro cicli di vita... Riducendo di un quarto il calcolo su 80Gb sarebbero comunque 40 anni, sempre una vita piuttosto longeva...

Tutti i software hanno una parte di scrittura ed una di lettura per gestire le loro operazioni interne (non fosse altro che l'autobackup, ad es.): io personalmente da quando ho correttamente impostato la fase di scrittura quasi interamente sull'hd secondario, il disco di sistema vola che è una meraviglia pur trattandosi di un Caviar Blue: probabilmente, la differenza con un SSD la dovrei cronometrare, perché a parte in avvio la risposta del sistema è sempre pronta e mai in apnea, come mi capitava in passato. Adottando poi ulteriori accorgimenti ho eliminato anche problemi di defrag e quant'altro, quindi a mio avviso reali esigenze di SSD in questo momento, in ragione del loro prezzo, non ve ne sono (IMHO).

Share this post


Link to post
Share on other sites

Spieghiamo per bene il trim: non serve a risparmiare il disco o ad allungargli la vita.

Quando un file viene cancellatoin un sistema operativo convenzionale esso non viene rimosso dall'hard disk. Semplicemente nella file allocation table le celle prima occupate da quel file vengono eticehttate come libere e dunque sovrascrivibili.

Ma se si guarda fisicamente sul disco il dato è ancora presente sulle celle, fino a ché non viene sovrascritto. Ciò è alla base delle possibilità di recovery di file cancellati erroneamente. Finché non ci si scrive sopra essi restano la!

Ora: le celle di memoria NAND multi level cell hanno un problema: sono molto veloci per quanto riguarda lo scrivere i dati. Il problema viene quando le celle sono già presenti e devono essere riscritte. In tal caso il controller del disco deve operare nel seguente modo: inanzitutto deve leggere tutte le celle del cluster e trasferire in cache. A quel punto, dalla cache, deve eliminare la parte di dati su cui deve sovrascrivere, poi deve scrivere nelle celle designate i dati nuovi, e infine deve riscrivere tutto il paccehtto nel cluster del disco in questione. Deve dunque leggere dal disco molto più dei file fisicamente da cancellare, li deve portare tutti in cache, cancellare quelli da cancellare, scrivere quelli da scrivere e infine rimandare tutto sul disco.

Questo perché l'organizzazione in cluster delle nand non consente di effettuare un'operazione di scrittura su una sola parte del cluster.

Ne deriva un calo di prestazioni notevole quando le celle sono già scritte.

Ecco allora le soluzioni possibili... TRIM e garbage collection.

Il primo in particolare che cos'è? E' un'istruzione che il sistema operativo può impartire al controller del disco. L'istruzione viene lanciata al momento della cancellazione dei file dalla FAT e informa il controller che le relative celle possono essere liberate, in modo tale che siano pronte per una nuova scrittura.

In questo modo le prestazioni del disco usato sono sostanzialmente pari a quelle del disco nuovo.

Ciò non c'entra, come si può vedere, con la speranza di vita del disco.

Questa ha invece a che fare con altri criteri già poresenti in windows vista e da mettere in pratica manualmente dagli utenti di XP: il principale dei quali è la disattivazione del defrag che non ha più senso di esistere negli SSD.

L'altra principale precauzione è invece implementata a livello di controller: si tratta di un algoritmo di wear leveling: le scritture sulle celle vengono sempre ripartite in modo equo, in modo tale che in ogni istante di vita ogni cella abbia subito grosso modo lo stesso numero di cicli di riscrittura. Quando si installa un disco nuovo, ad esempio, si scrivono dei file. Successivamente questi file vengono cancellati. Alla scrittura successiva, i nuovi file non occuperanno la prima posizione libera a partire dall'inizio disco, come avviene, o dovrebbe avvenire, nei dischi meccanici. Occuperanno invece le celle che hanno subito meno scritture, e dunque celle non ancora utilizzate, nel nostro esempio. Dunque prima che una cella subisca una seconda scrittura tutto il disco dovrà essere stato scritto almeno una volta. Se io installo il vista e poi i programmi ed occupo 30Gb, e uso il disco in modo da evitare riscritture... non ci metto i temporanei, il paging e via dicendo... se poi formatto e reinstallo la stessa roba, per altri 30Gb, il disco non sarà stato usato nella sua totalità nemmeno una volta, perché prima avrò usato 30Gb di celle, poi altri 30Gb... e me ne restano altre 20 da scrivere una volta prima di ripartire da capo!

Una cosa interessante e che non si direbbe a intuito è che tale algoritmo è superiore al sistema di partizionamento. In sostanza non si possono riconoscere delle aree fisiche del disco che appartengono all'una o all'altra partizione. Se io scrivo dei file in una partizione essi occcuperanno sempre le celle meno usate, e dunque file dell'una e dell'altra partizione si alterneranno e si mescoleranno fra le celle dell'ssd in modo squisitamente disordinato :D

Ora è meglio se vado a dormire perché mi rendo conto che sto scampanando di brutto :D

Spero di aver chiarito il discorso decadimento prestazioni/usura delle celle.

Share this post


Link to post
Share on other sites
Spero di aver chiarito il discorso decadimento prestazioni/usura delle celle.

Si in effetti mi sono espresso male, l'ora tarda mi ha portato a scrivere cose false... Ad ogni modo utili per la lezione di TRIM di papax, sempre puntuale... ;)

Da dire a tal proposito che mi risulta i controller Indilinx abbiano questo comando già nativo, mentre per altre unità bisogna aspettare in un aggiornamento firmware oppure dotarsi di apposite utility da far partire insieme al sistema (tipo alcuni modelli OCZ): l'Intel ha già questa possibilità o ancora no?

Share this post


Link to post
Share on other sites

Si, gli ssd indilinx sono già abilitati a ricevere il comando. Questo perché in passato il calo di prestazioni nel passaggio a disco usato era stato aggirato con un utility (weeper) che da sistema operativo avrebbe inviato l'ordine di trim su tutte le celle da cancellare. L'utility era manuale e inizialmente funzionava solo su dischi singoli, non in raid.

Ora i controller indilinx provvedono autonomamente ad un garbage collection che svuota le celle quando il disco si trova in stato di idle (così da non rallentarne nle operazioni mentre lo si usa).

Sugli intel il trim non è ancora abilitato. Sarà introdotto, solo sulla line x-25m g2 all'uscita di windows 7.

A tal proposito si deve però notare che la perdita di prestazioni associata all'uso delle celle sui dischi intel è comunque ridottissima, ed è ulteriormente calata passando da G1 a G2, probabilmente grazie all'aumento della cache da 16 a 32Mb.

Share this post


Link to post
Share on other sites

<_<

Dillo che sei tornato a scrivere sul forum per fare il figo sborone con Windows che si avvia in 8 secondi, Max in 5 e PS in 3... Ti mando un virus eh! :devil:

Share this post


Link to post
Share on other sites

:D :D

invidioso!

No comunque devo dire che per quel poco di tempo che ho avuto per testare (los corso fine settimana pochissimo, questo poco...) si sente proprio che è cambiata tecnologia, una marcia diversa!

E' perfino strano, perché noi ci siamo abituati ai tempi degli hard disk... insomma il fatto di dover aspettare per aprire programmi, caricare il sistema, i rallentamenti assurdi quando si swappa... è più che normale! Nessuno si stupisce se spostando dei file gli viene scritto "60 secondi al termine del processo"... "50" ... "40".

Come per caricare dei livelli di gioco... difficile credere che a 200MB/s ci metta 20 secondi perché sta caricando in ram 4Gb di livello di cgioco... Non ho fatto prove ma mi aspetto un migliroamento sostanziale in un ambito del genere...

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...