Wiem, �e dysk�w SSD nie powinno si� defragmentowa�, bo po pierwsze skraca to ich
�ywot, a po drugie - fragmentacja plik�w na takim dysku nie jest dla u�ytkownika
uci��liwa z wiadomych powod�w.
Ale tak si� zastanawiam - gdy po d�u�szym okresie u�wania dysk systemowy (SSD)
b�dzie ju� naprawd� bardzo mocno pofragmentowany, to mo�e jednak raz na p� roku
zapuszczenie defragmentacji nie jest takim z�ym pomys�em i mo�e nawet poprawi
wydajno��? Czasy dost�pu, cho� bardzo kr�tkie, nie s� przecie� zerowe...
Jak s�dzicie?
P.S.
Dlaczego narz�dzie MHDD (dos-owe) pokazuje g�upoty podczas skanowania dysku SSD?
Np. skanowanie trwa 30 sek. (zamiast �adnych paru minut), a wy�wietlona �rednia
pr�dko�� odczytu wynosi np. 1700 MB/s (prawie 10x szybciej, ni� jest naprawd�).
Pewnie ten program wykonuje jaki� szczeg�lny rodzaj odczytu sektor�w z pomiarem
czasu odczytu - ale czemu na SSD to nie dzia�a?
Dzi�ki,
latet
Z tą defragmentacją SSD to nie do końca taka prawda jak piszecie, bo
SSD też się fragmentuje i to ma wpływ na jego szybkość. Przy czym
defragmentacja aplikacją ze systemu operacyjnego na nic się nie zda.
Dysk sam dba o uniknęcie poniżej opisanej fragmentacji - ale algorytmy
tego są różne i nie zawsze skuteczne.
Uwaga będzie głęboko: dysk ssd jest podzielony na bloki nie po 512B
ale po 4,8 itd kB. Z pamięci flash odczytywany jest więc taki niepodzielny
blok i z niego wyłuskiwany sektor 512B akurat potrzebny do wysłania.
I teraz dajmy na to mamy duży plik który zajmuje nam 0.5GB czyli
~milion sektorów. A sam dysk mamy tak poszatkowany że akurat każda z
jego części zapisała się w innym bloku np 8kB. Oznacza to że aby wysłać
przez sata te 0.5GB trzeba odczytać z flasha 16x tyle danych! czyli
8GB. Szybkość w takim przypadku liniowego odczytu (wewnętrznego) spadnie
16-sto krotnie do oczekiwanych i zapewne będzie odczuwalna na sata.
>
> My�lisz, �e po tych kom�rkach pami�ci jaka� g�owica lata? ;->
mniejsza o latanie, ale podejrzewam, �e elektronika wewn�trz umo�liwia
szybszy odczyt/zapis jesli transfer dotyczy kolejnych blok�w (chyba we
wszystkich urz�dzeniach od ram�w po hdd tak jest).
pozdrawiam
--
Michaďż˝ Walenciak
gmail.com kicer86
http://kicer.sileman.net.pl
gg: 3729519
> W dniu 08.10.2011 11:34, Kicer pisze:
>> mniejsza o latanie, ale podejrzewam, �e elektronika wewn�trz umo�liwia
>> szybszy odczyt/zapis jesli transfer dotyczy kolejnych blok�w (chyba we
>> wszystkich urz�dzeniach od ram�w po hdd tak jest).
>
> Defragmentacja SSD to prosta droga do jego zniszczenia.
>
nie powiedzia�em �e nie, chodzi mi jedynie o to �e dost�p sekwencyjny zawsze
jest szybszy.
To wlasnie jedyne co mnie powstrzymuje przed SDD, �e po prostu si� zu�ywaj�.
> Tom01 wrote:
>
> > W dniu 08.10.2011 11:34, Kicer pisze:
> >> mniejsza o latanie, ale podejrzewam, �e elektronika wewn�trz umo�liwia
> >> szybszy odczyt/zapis jesli transfer dotyczy kolejnych blok�w (chyba we
> >> wszystkich urz�dzeniach od ram�w po hdd tak jest).
> >
> > Defragmentacja SSD to prosta droga do jego zniszczenia.
> >
>
> nie powiedzia�em �e nie, chodzi mi jedynie o to �e dost�p sekwencyjny zawsze
> jest szybszy.
> To wlasnie jedyne co mnie powstrzymuje przed SDD, �e po prostu si� zu�ywaj�.
>
a na ile lat kupuszesz sprz�t?
Bo je�li na 10-20 lat to masz racje, ale je�li na 5 to spoko SSD mo�e kupowa�
Daj spok�j. Przyjemno�� z przesiadki z hdd na ssd rekompensuje wszelkie takie
obawy i troski. Naprawdďż˝ warto.
A zu�ywanie, cho� jest faktem, przebiega znacznie znacznie wolniej, ni� to sobie
wyobra�aj� ci, co si� tego boj�.
I jestem pewny, �e zanim m�j Vertex 2 (60GB) zd��y si� "zu�y�" to ju� dawno go z
w�asnej woli wymieni� na inny, szybszy, wi�kszy i lepszy.
P�ki co - u�ywam go bardzo intensywnie od 1,5 miesi�ca (na pocz�tku kilkana�cie
dni ci�kiego testowania, potem jako dysk systemowy z plikiem wymiany). I co? I
nic. Owszem, 1,5 miesi�ca to kr�tko, ale patrz� ta� na smart, a tam s� takie
wska�niki jak:
Retired Block Count - wci�� 0
Erase Fail Count - wci�� 0
Wear Range Delta - wciaďż˝ 0
Relocated Event Count - wciaďż˝ 0
SSD Life Left - wci�� "0" (czyli max. zak�adny czas - tj. do 4 grudnia 2019 wg.
SSDLife Free 2.1.29)
Licznik odczytanych danych ��cznie - 2904 GB (tj. prawie 3 TB!)
Licznik zapisanych danych ��cznie - 2700 GB
Jak wida� po ostatnim - zapisa�em ju� na ten dysk dane o ��cznej wielko�ci
prawie 50x przekraczaj�cej pojemno�� dysku. Czyli zak�adaj�c , �e Wear Leveling
dzia�a tak jak powinien, to ka�da kom�rka by�a zapisana 50x. Ale podkre�lam (i
wida� to po licznikach), �e by�o to okres bardzo intensywnego m�czenia dysku
testami (zape�nienie - trimowanie - zape�nienie - trimowania - i tak dziesi�tki
razy). Odk�d u�ywam go jako normalnego systemowego, to z tych ��cznych 2700 GB
przyby�o zaledwie 1-2 GB, a odczytu ok. 100 GB z �acznych 2900 GB.
Pozdrawiam,
latet
>
> a na ile lat kupuszesz sprz�t?
> Bo je�li na 10-20 lat to masz racje, ale je�li na 5 to spoko SSD mo�e
> kupowaďż˝
generalnei nie lubiďż˝ sie pozbywaďż˝ dobrego sprzetu i mam 2 PC ze starymi hdd,
z olbrzymi� ilo�ci� przepracowanych godzin. Ci�gle s� jak nowe ;)
Tylko uk�adach mechanicznych. Dost�p do innej kom�rki pami�ci to tylko
inny adres. Nie ma znaczenia czy jest obok czy "na drugim ko�cu" ko�ci.
--
Tomasz Jurgielewicz
Masz ochotďż˝ zapytaďż˝ mnie o monitory specjalistyczne?
Masz problem z kolorem? Wal �mia�o!
To nie jest prawda. Proszę zapoznać się np. z charakterystyką pamięci
DRAM. W skrócie wybranie adresu jest kosztowne, odczytywanie kolejnych
komórek (słów) znacznie mniej
Oczywiście każdy typ pamięci (np. Static RAM, ew Flash MLC/SLC itp)
należy przeanalizować niezależnie, producenci wprowadzają różnego
rodzaju usprawnienia, więc jedyną wyrocznią jest datasheet.
Może Pan przytoczyć źródło tych danych a najlepiej i same wartości o
jakich mówimy?
--
Tomasz Jurgielewicz
Masz ochotę zapytać mnie o monitory specjalistyczne?
Masz problem z kolorem? Wal śmiało!
Dla każdej technologii jest inna specyfika, dla przykładu DDR SDRAM:
http://pl.wikipedia.org/wiki/CAS_latency
Ogólna zasada, aby zaadresować komórke - wybieramy wiersz, kolumne,
dopiero po tych operacjach (wzlględnie czasochłonnych) można
strumieniowo pobrać paczke danych
Gdy zmieniamy tylko kolumne jest to szybsze niz gdy zmieniamy wiersz i
kolumne (row, col).
Przykładowy cytat z w/w:
"Innym czynnikiem utrudniającym wyliczenie dokładnych opóźnień jest
wykorzystanie transferów ciągłych. Nowoczesny mikroprocesor może mieć
wielkość linii pamięci podręcznej wielkości 64 bajtów, wymaga to 8
transferów po 64-bity (8 bajtów) do wypełnienia linii. Za pomocą
opóźnienia CAS można wtedy dokładnie zmierzyć tylko czas przesłania
pierwszego słowa. Za czas przesłania kolejnych odpowiada opóźnienie RAS."
> http://pl.wikipedia.org/wiki/CAS_latency
> Ogólna zasada, aby zaadresować komórke - wybieramy wiersz, kolumne,
> dopiero po tych operacjach (wzlględnie czasochłonnych) można
> strumieniowo pobrać paczke danych
Tylko co to ma wspolnego z SSD? hint: nie mamy bezposredniego dostepu do
komorek fizycznej pamieci takiego dysku.
No w sumie racja, nie znajac dokladnych algorytmow pracy kontrolerow,
trudno dokladnie cos wnioskowac, aczkolwiek mozna przynajmniej
przypuszczac na czym polega model dzialania: - zrownowazenie ilosci
zapisow w obrebie calego dysku.
Gdyby przyjac model iz kazdy kolejny blok LBA mapowany jest na zupelnie
'losowy' blok w pamieci flash (co jest bardzo prawdopodobne po jakims
czasie dzialania), to po prostu defragmentacja z natury rzeczy nic nie
wniesie do wydajnosci, a skroci wydajnosc dysku (ze wzgledu na duza
ilosc zapisow).
Byc moze, powtarzam byc moze SSD moze stosowac algorytmy usprawniajace
odczyty kolejnych LBA /cos ala prefetch/, ale to juz tylko domysly ze
wzgledu na zlozonosc obecnych i pewno tych co powstana ukladow, wiele
jest mozliwych scenariuszy. najlepiej nie zawracac sobie tym glowy. Sama
roznica SSD vs HDD jest na tyle duza w czasie dostepu, ze po prostu sie
uzywa i tyle.
> No w sumie racja, nie znajac dokladnych algorytmow pracy kontrolerow,
> trudno dokladnie cos wnioskowac, aczkolwiek mozna przynajmniej
> przypuszczac na czym polega model dzialania: - zrownowazenie ilosci
> zapisow w obrebie calego dysku.
Dokładnie nazywa się to: Wear Leveling :)
Zastanawiam się , czy STATIC Wear Leveling robi CZASEM coś (co spowalnia) także
przy liniowym odczycie danych?
Nie wiem jak inaczej wytłumaczyć, że dwa testy HD Tune (dokładność Acurate)
zapuszczone jeden po drugim - wyglądają tak:
1. http://xyz.avx.pl/screenshots/ssd1.png
2. http://xyz.avx.pl/screenshots/ssd2.png
przy czym ten pierwszy był właczony po tygodniu bez żadnych testów, a ten drugi
zaraz po nim.
Trudno się oprzeć wrażenie, że przy pierwszym "przebiegu" dysk robił coś jeszcze
po całości....
latet
Do której wersji?
latet
Tam nie ma "kolejnych blok�w".
> Do której wersji?
1.35, która wydaje się być najnowszą ;)
A którą miałeś wcześniej, tzn. między którą a którą wersją odczułeś zysk
wydajności?
latet
> A którą miałeś wcześniej, tzn. między którą a którą wersją odczułeś zysk
> wydajności?
1.2cośtam ;)
Aha, bo ja mam od nowiści 1.33, więc nie wiem, czy ryzykować wgrywanie 1.35.
latet
Zaryzykowałem. Poszło gładko. Lepiej nie jest, ale na pewno nie jest gorzej.
latet
http://www.myce.com/review/ocz-vertex-2-100gb-ssd-review-30021/SandForce-SF1200-SSD-controller-2/
28%
> Tak wiec dopiero po p� roku mo�esz ujrze� widoczny efekt
> swojej 'pracy' czyli uszkodzenia dysku. Mo�esz, ale nie musisz,
> bo producenci deklaruj� i� po tym milionie zapis�w dysk
> b�dzie jeszcze ca�kiem sprawny. Zreszt� niekt�rzy producenci
> gwarantujďż˝ 2 mln cykli.
Kt�ry producent ko�ci MLC tyle daje?
> Nie wiem jak wyliczy�e� to 160 dni,
Dla w/w warunk�w i typowej �ywotno�ci MLC nie przekraczaj�ce raczej 10k
cykli: http://www.anandtech.com/show/4159/ocz-vertex-3-pro-preview-the-first-sf2500-ssd/2
nawet przy static wear levelling mi wychodzi: 10000/2*60/(.5/2)/(3600*24) < 14 dni
:()