Od szafy do walizki
IBM 350 okazał się prawdziwym przełomem technologicznym jeśli chodzi o magazynowanie danych. Dzięki wykorzystaniu 50 talerzy magnetycznych o średnicy 24 cali, wirujących z prędkością 1200 obrotów na minutę, praktycznie pod każdym względem wyprzedzał popularne wówczas rozwiązania – karty dziurkowane oraz pamięć bębnową.
W latach 1956-61 koncern IBM wyprodukował ponad 1000 komputerów IBM 305 RAMAC wyposażonych w napędy dyskowe. Pomimo upływu blisko 60 lat, współczesne dyski twarde wciąż działają na tej samej zasadzie co IBM 350.
Idąc za ciosem i bazując na doświadczeniach z modelu 350, IBM tworzył w latach 60-tych coraz bardziej zaawansowane konstrukcje. Dysk IBM 1301 z 1961 roku mieścił 28 MB danych na 25 talerzach. Każdy z nich miał dedykowaną głowicę, co pozwoliło skrócić czas dostępu do danych z 600 do 180 ms. W 1965 roku powstał moduł dyskowy IBM 2310, korzystający z wymiennych kartridżów o pojemności 1 MB. Magazynowanie i przenoszenie danych stało się proste, gdyż zawierający magnetyczny talerz kartridż mieścił się w walizce.
Mainframe kontra komputer dla każdego
W 1970 roku na rynku zadebiutował IBM 3300 (Model 1) z przełomowym mechanizmem korekcji błędów. System składał się z dwóch modułów z wymiennymi nośnikami i kosztował równowartość dzisiejszych 400 tys. dolarów. Pojedynczy nośnik danych (tzw. Disk Pack) zawierał w sobie 11 talerzy o średnicy 14-cali i oferował pojemność 100 MB, a począwszy od 1974 roku – 200 MB. Moduły można było ze sobą łączyć, więc dyski twarde po raz pierwszy były w stanie zaoferować gigabajtowe pojemności. Nadal poważną przeszkodą były duże rozmiary napędu.
Magnetyczne dyski talerzowe po raz pierwszy spotkały się z realną konkurencją w 1976 roku. Firma Dataram zaprezentowała wtedy napęd Bulk Core, który dziś uważany jest za przodka dysków SSD (Solid State Drive). Wykorzystywał on tzw. pamięć ferrytową, której charakterystyczną cechą był brak elementów mechanicznych. Czas dostępu do danych wynosił zaledwie 2 ms. Rozwiązanie było interesujące, ale też niezwykle kosztowne i przez to mało praktyczne. Gdyby przełożyć cenę pamięci Bulk Core na obecne warunki – 1 TB przestrzeni dyskowej kosztowałby ok. 1,6 mld dolarów. Bill Gates za cały swój majątek, mógłby więc kupić około 49 TB miejsca na dane. Niewiele jak na najbogatszego człowieka na świecie.
Prawdziwa rewolucja w dyskach twardych nastąpiła dopiero w 1980 roku, gdy firma Shugart Technology zaprezentowała napęd ST-506. Oferował on pojemność identyczną jak IBM 350 w 1956 roku, czyli 5 MB. Miał jednak “miniaturowy” format 5,25 cala i ważył zaledwie 3,2 kg. Można go było zmieścić w obudowach pierwszych komputerów PC. ST-506 odniósł spory rynkowy sukces, a firma Shugart dziś jest znana jako Seagate.
Kolejną istotną innowacją na rynku była premiera dysku Rodime RO352 w 1983 roku. Ta nieistniejąca dziś szkocka firma zdołała zmieścić napęd HDD o pojemności 10 MB w 3,5-calowej obudowie. Tak narodził się standard, z którego korzystają dziś wszystkie “desktopowe” modele dysków HDD.
Pecetowa rewolucja
Lata 80-te na rynku dysków twardych były okresem pędzącej miniaturyzacji i standaryzacji. Powstały interfejsy SCSI oraz IDE, a japoński koncern Toshiba opracował w drugiej połowie dekady technologię pamięci półprzewodnikowych NAND flash.
W 1988 roku na rynku zadebiutował pierwszy dysk HDD w formacie 2,5 cala – PrairieTek 220 o pojemności 20 MB. Podobnie jak Rodime RO352, uznawany jest on za kamień milowy w ewolucji HDD. Dekadę później dyski 2,5 cala zaczęły być masowo stosowane w laptopach. W 2006 roku format 2,5 cala stał się standardem na rynku napędów SSD z interfejsem SATA.
Na początku lat 90-tych dyski twarde puchły pod względem oferowanych pojemności i przyspieszały, korzystając z boomu na komputery PC. IBM pierwszy gigabajtowy model HDD wprowadził na rynek już w 1991 roku. Był to model 0663 Corsair – 3,5-calowa konstrukcja z 8 talerzami. Rok później firma Seagate zaprezentowała napęd o pojemności 2,1 GB z talerzami wirującymi z prędkością 7200 RPM.
W 1995 roku izraelska firma M-Systems stworzyła pierwszy dysk FFD (Fast Flash Disk), który swoim formatem 3,5 cala nawiązywał do klasycznych dysków twardych, jednak oparty został na kościach pamięci NAND. Nie posiadał żadnych ruchomych elementów, oferował bardzo krótki czas dostępu i co istotne, uważany był za nośnik wyjątkowo trwały i niezawodny. Rozwiązania spod znaku FFD kosztowały krocie ze względu na bardzo wysokie ceny zastosowanych w nich pamięci, ale przypadły do gustu m.in. wojskowym. Trafiły również do rejestratorów lotu, popularnie nazywanych czarnymi skrzynkami.
Koniec XX wieku to czasy talerzy wirujących z zawrotnymi prędkościami. W 1996 roku Seagate stworzył dyski twarde z rodziny Cheetah. Pierwsze modele rozpędzały się do 10000 RPM, a w modelu Cheetah X15 z 2000 roku talerze obracały się z prędkością 15000 RPM. Były to najszybsze dyski z interfejsem IDE. Doceniano je za wydajność, przeklinano za generowany hałas.
SATA zmienia wszystko
Można śmiało powiedzieć, że XXI wiek nastał dla dysków twardych pod koniec 2002 roku, wraz z premierą uniwersalnego interfejsu SATA. Nową generację napędów HDD pokochali gracze. Szczególnie ci, których stać było na zakup dwóch dysków i połączenie ich w macierz RAID0. Złącze SATA szybko stało się standardem i równie szybko ewoluowało. W 2004 roku debiutowała jego druga generacja (SATA 3 Gb/s), a pięć lat później trzecia (SATA 6 Gb/s). Gdy w 2006 roku magnetycznym dyskom talerzowym stuknął piąty krzyżyk, zaczęły tanieć drogie wcześniej pamięci NAND flash. HDD zyskały groźnego konkurenta w postaci pierwszych, dostępnych dla Kowalskiego, dysków SSD.
Pionierami nowej technologii byli dwaj rynkowi potentaci – Samsung oraz SanDisk. W 2010 roku do peletonu dołączyła firma Plextor, znana z produkcji wysoko cenionych napędów optycznych. Wprowadzony na rynek przełomie 2010/2011 model Plextor M2S był jednym z pierwszych dysków SSD korzystających z interfejsu SATA 6 Gb/s.
Pojemność czy szybkość?
Magiczna bariera pojemności dysków HDD wynosząca 1 TB została przekroczona w 2007 roku przez firmę Hitachi. Aby osiągnąć tą samą pojemność przy pomocy pierwszego dysku twardego, musielibyśmy połączyć ze sobą 200 tys. modułów IBM 350. Zakładając, że każdy z nich ważył tonę, uzyskalibyśmy masę odpowiadającą wyporności dwóch atomowych lotniskowców lub jednego supertankowca. To było osiem lat temu. Dziś dyski twarde są w stanie zmieścić na 3,5-calowym nośniku nawet 10 TB danych.
Współczesne dyski wciąż nie oferują takich pojemności, jednak mają inny, ważniejszy atut – nieosiągalną dla napędów HDD szybkość odczytu oraz zapisu danych. Połączenie wydajnych kontrolerów i coraz tańszych pamięci NAND flash o błyskawicznym czasie dostępu, doprowadziło do kolejnej rewolucji. Dziś coraz częściej dyski talerzowe są traktowane jako magazyny danych, wracając niejako do swoich korzeni. W nowych komputerach, zamiast powolnych ale pojemnych napędów HDD, coraz częściej znajdziemy mniejsze ale wielokrotnie wydajniejsze dyski SSD.
Skąd ta zmiana? Generują ją spadające ceny SSD oraz rosnące potrzeby użytkowników – szczególnie graczy. Blisko dekadę temu, pierwsze dostępne w sklepach dyski SSD oferowały 32 GB miejsca na dane i kosztowały tyle ile nowy laptop średniej klasy (ok. 700 dolarów). Dziś popularne modele o pojemności 256 GB, możemy kupić za siedmiokrotnie niższą cenę – wydając mniej niż 400 złotych (ok. 100 dolarów). Pojemność takiego nośnika jest w zupełności wystarczająca dla kogoś, kto dane przechowuje poza komputerem – na dysku zewnętrznym lub w internetowej chmurze. W 2007 roku Kowalski mógł o dysku SSD tylko pomarzyć. Dziś może z jego pomocą, stosunkowo niewielkim kosztem, zmodernizować swojego peceta.