SSD kontra HDD i o tym, dlaczego ważny jest rodzaj pamięci Flash
Różnice między dyskami HDD i SSD są Wam z pewnością doskonale znane. W tych pierwszych (talerzowych) za zapis i odczyt odpowiadają głowice i talerze, a w tych drugich kości pamięci i kontroler. Pierwsze zwykle niszczą się przez zwyczajne zużycie wewnętrznych elementów, bo operują poprzez poruszanie się głowic tam i z powrotem nad talerzem kręcącym się z prędkościami zwykle 7200 obrotów na minutę. Dlatego tak łatwo zniszczyć HDD podczas przenoszenia sprzętu, bo nawet uśpiony laptop nie uchroni go od wibracji podczas podróży. Wtedy jakkolwiek bezpieczną torbę byście mieli, zawsze ryzykujecie uszkodzeniem go.
Czytaj też: Co oznaczają certyfikaty 80 PLUS na zasilaczach i dlaczego potrzebujemy czegoś nowego?
To problemy, które SSD nie dotyczą nawet w najmniejszym stopniu. Te znacznie lżejsze, mniejsze w standardowej formie (3,5 vs 2,5 cala) i fizycznie mniej skomplikowane dyski, składają się tylko z laminatu, kontrolera i kości pamięci (ewentualnie dodatkowego układu pamięci podręcznej DRAM). W wersjach na M.2 brakuje im nawet obudowy, którą zawsze posiadają w swoich konsumenckich wariantach na SATA. W teorii powinny być więc niezniszczalne na tle HDD, ale oczywiście nie są i jest to spowodowane nie tylko zużyciem elektroniki jako takiej, ale przede wszystkim charakterystycznym zużyciem kości pamięci NAND.
Te kości występują w wersji SLC, MLC, TLC i już QLC, co odpowiada kolejno 1, 2, 3 i 4 bitom, które mogą zapisać ich komórki pamięci. Zapewnia to możliwość zapisania większej ilości danych na tych samych kościach, co gwarantuje okazalsze pojemności i lepszy stosunek do ceny za GB, ale wiąże się ze spadkiem wydajności i trwałości.
Tak też kości SLC przechowują tylko jeden bit danych w komórce, dlatego kontroler w łatwy sposób może go odczytać nawet po dość dużym zużyciu. Staje się to dla niego trudniejsze z każdym kolejnym poziomem, bo wielopoziomowe komórki MLC, TLC i QLC, wymagają odczytu wielu różnych stanów z wielu poziomów. Marginesy błędów są więc w nich mniejsze, a to sprawia, że są tym samym mniej wytrzymałe.
Dlaczego dyski SSD ulegają zużyciu?
Przechodząc już do tego, co najważniejsze, kości pamięci flash w SSD ulegają zużyciu za każdym razem, kiedy coś na nich zapisujemy. Jest to spowodowane samą ich konstrukcją, która obejmuje m.in. warstwy pewnego związku chemicznego zmieszanego z tlenem. Te warstwy więżą w sobie elektrony, a to od ich “liczebności” zależy ogólny stan kości. Problem w tym, że każda operacja zapisu sprawia, że wspomniane warstwy tracą swoje zdolności do zatrzymywania elektronów. Przez to z czasem pojawia się problem z prawidłowym odczytem stanu danych komórek.
Co ważne, każdy zapis danych w komórkach pamięci dysków SSD wymaga ich wcześniejszego wymazania, co tylko przyspiesza cały proces. Dlatego też operacje odczytu nie odbijają się w znacznym stopniu na stanie kości pamięci, a raczej powodują zwyczajne “zużywanie się elektroniki”, co jednak może trwać niepomiernie dłużej niż operacje zapisu.
Brzmi to wprawdzie tak, jakby nasze SSD były skazane na zagładę już po roku użytkowania, ale mój przykład z początku powinien wystarczyć Wam, żeby wyzbyć się takiego myślenia. Obecnie w domowych zastosowaniach nawet dyski z niższej półki są w stanie wytrzymać długie lata użytkowania, czego przykładem może być m.in. dysk XLR8 CS3140 od PNY, który mieliśmy przyjemność testować.
Zachwycaliśmy się zresztą jego wydajnością kopiowania, ale też wytrzymałością, bo ten model w wersji o pojemności 1 TB chwali się TBW na poziomie aż 1800 TB. Dzięki temu pięcioletnia gwarancja będzie Wam przysługiwać nawet wtedy, kiedy każdego dnia będziecie zapisywać na tym dysku prawie terabajt danych (~986 GB). Dla przypomnienia, TBW, czyli Terrabytes Written, to wskaźnik potencjalnej wytrzymałości SSD po określonej liczbie terabajtów zapisanych danych, którego producenci wykorzystują do ochrony przed nadużyciami gwarancji.
Czytaj też: Jak przyspieszyć Windowsa 11 w dwie minuty? Opowiadamy o VBS i HVCI
Wspominamy o tym dokładnie dysku nie bez przyczyny, bo to ten model wykończyliśmy przez ostatnie pół roku. Pracował dzielnie od maja do czerwca przez całe 4017 godzin, czyli praktycznie nieustannie przez 5,5 miesiąca, ale w bardzo dobrych warunkach, bo pod solidnym chłodzeniem. Miał jednak przed sobą katorżniczą wręcz pracę, bo w każdej minucie działania był obciążony operacjami zapisu.
Przez to, po ponad 4000 godzinach pracy, nasz egzemplarz PNY CS3140 o pojemności 1 TB doczekał się przerażającej oceny w Crystal Disk Info. Okraszone czerwienią “Zły. 0%” podsumowanie jego stanu zauważyliśmy dopiero wtedy, kiedy zwykle wykonywane na nim prace zaczęły trwać dłużej niż powinny. Uznaliśmy to więc za świetną okazję, żeby zaprezentować Wam to, jak wypada wydajność zużytego SSD.
Jak bardzo spada wydajność zużytego SSD?
Zacznę może od tego, że pomimo ostrzeżenia od programu, na CS3140 nadal pracuję, nieco ryzykując, ale tylko czas (pamiętacie – backup, to podstawa). Wprawdzie nie działa na nim system operacyjny, ale regularnie przenoszę na niego zdjęcia, gry i pliki wszelkiej maści i wiecie co? Nadal spisuje się w tym tak, jak kiedyś… tyle że wszystko trwa dłużej. Zdjęcia jednak można odczytać, gry normalnie odpalić i pograć, a pliki również nie wyglądają na naruszone.
To zresztą największe wątpliwości, które krążą wokół zużytych dysków, zadając ciągle dwa pytania w stylu. Kiedy wreszcie padnie? Jak wiele danych stracę? Ja również zadawałem sobie to pytanie, ale dysk działa nadal (kolejne 600 godzin) i pomimo spadku wydajności, nie powoduje żadnych problemów. Czy postępuję głupio? Oczywiście że tak i nie radzę powtarzać takiej zabawy bez zadbania o odpowiednią kopię zapasową, ale wbrew moim oczekiwaniom, CS3140 spisuje się nadal poprawnie. Wydajność oberwała jednak znacznie. Spójrzcie sami na testy wykonane na tej samej platformie:
Spadek dotyczy nie tylko zapisu, ale też odczytu i to na każdym froncie, choć w mniejszym stopniu. Sekwencyjny zapis oberwał przy tym znacznie, obniżając się pięciokrotnie zarówno w Crystal Disk Mark, jak i Anvil’s Storage Utilities, gdzie tylko zapis próbek 4K QD16 zaliczył srogi spadek z poziomu 1400 do 900 MB/s. Tuż po zapisie sekwencyjnym pod kątem spadków uplasowały się próbki 4KB Q8T8, spadając z 1905 do 1115 MB/s.
Czytaj też: Praca zdalna i częste wideokonferencje? Poprawcie ich jakość z NVIDIA Broadcast
Jak już wspomniałem, dysk jednak nadal działa i ma za sobą ponad 100 godzin pracy po doczekaniu się “złego stanu”. Może to przez fakt, że do granicy TBW jeszcze daleko? W rzeczywistości dysk nie osiągnął nawet 66% poziomu tego wskaźniku, co w praktyce umożliwiłoby najpewniej zwrócenie go do producenta i skorzystanie z prawa gwarancji. Z poziomu prawie 1200 TB jest ciągle daleko do zapowiadanych 1800 TB, ale że nie jest to wskazanie na utrzymanie wydajności bliskiej początkowej, a wskaźnik ograniczający gwarancję, nie możemy mieć nic za złe producentowi.
Słowem zakończenia, choć eksperymentów z nim na ten moment zaniecham, to gdyby ten szczególny egzemplarz CS3140 posłużył mi jeszcze w innym sprzęcie i dał o sobie znać w inny ciekawy sposób, ten artykuł doczeka się kontynuacji.