Kapitał zakładowy wynosił 100 tys. dolarów. Początkowo AMD produkowało dla wojska. Potem doświadczenie zdobyte na współpracy z tak wymagającym klientem jak armia, przydało się przy produkcji dla cywili. Poważny kryzys nadszedł już w 1974 r. wraz z recesją, ale wówczas AMD, które zawsze dbało o pracowników, zamiast ich zwolnić, poprosiło o większe zaangażowanie. AMD przetrwało.
Lata 70. i “Gorączka sobotniej nocy”
W dekadzie disco AMD przechodziło bardzo dynamiczne zmiany. Firma projektowała i produkowała wiele układów elektronicznych, służących nie tylko do budowy ówczesnych komputerów, ale też wszelkiej bardziej zaawansowanej automatyki przemysłowej. Z biznesowego punktu widzenia najważniejsze był w tamtym czasie zapewne wejście na giełdę w 1972 roku. Jednak patrząc z perspektywy technologicznej, bardziej istotne było wyprodukowanie w 1975 roku przez AMD 8-bitowego procesora AM9080, który właściwie był wersją procesora Intel 8080. I tu ważna uwaga – AM9080 powstał w sposób określany jako inżynieria wsteczna (ang. reverse engineering), który nawet w świetle dzisiejszego prawa, znacznie bardziej restrykcyjnego, nie zawsze musi oznaczać naruszenie własności intelektualnej. W pewnym uproszczeniu: tak długo, jak produkt nie stanowi kopii, a producent zdobył potrzebną wiedzę poprzez badanie cudzego pomysłu, wszystko pozostaje legalne. Warto odnotować też, że to w latach 70. AMD zawiązało współpracę z Siemensem, tworząc z nim firmę-córkę na terenie Niemiec.
Lata 80. – “Powrót do przyszłości”
W latach 80. AMD i Intel nie stały po dwóch stronach barykady. W 1981 roku AMD podpisało z Intelem 10-letnią umowę o wymianie technologicznej. A w 1982 r. AMD uzyskało od Intela licencję na produkcję procesorów x86. Dzięki temu już rok później na rynku pojawiły się produkowane dla Intela, ale przez AMD układy 8086, 8088, 80186 i 80188. AMD stawiało wówczas nie tylko na tworzenie CPU dla “niebieskich”, ale też układy komunikacyjne takie jak niezwykle udane modemy AMD7910 i AMD7911. Przez lata 80 AMD tworzyło liczne rozwiązania, w tym pamięci DRAM. W 1985 roku firma Jerry’ego Sandersa trafiła na listę Fortune 500.
Lata 90. – “Przebudzenie”
Komputerowy boom w pełni, koniec zimnej wojny i początek zupełnie nowej, która trwa do dziś. AMD w 1991 roku wypuściło własny układ kompatybilny z Intel 386 nazwany AMD Am386. Układ sprzedawał się znakomicie, a dotychczasowi partnerzy stali się konkurentami. To także początek sądowych batalii między dwiema kalifornijskimi firmami. Zdaniem Intela, wcześniejsze umowy obejmowały układy do i286 i starsze, a zatem AMD nie miało prawa tworzyć własnej wersji procesora 386. Jednakże sąd stwierdził, po trwającej kilka lat rozprawie, inaczej. Ów wyrok to najważniejsze wydarzenie w historii AMD lat 90. Otworzyło AMD stabilną drogą do dalszego produkowania układów X86. Przez dalszą część lat 90 AMD tworzyło procesory bliźniaczo podobne do układów Intela, zwykle wyraźnie tańsze i nieraz też bardziej wydajne. Wraz z układem Am486 zdołało też przekonać do siebie dużych producentów komputerów, z niezwykle silnym wówczas graczem, jakim wtedy był Compaq.
Intel zmusił AMD do wykazania się odrobiną inwencji własnej, jeśli chodzi o nazwy, kiedy zamiast nazwać kolejną generację procesorów 586, nazwał je Pentium (łac. penta – pięć). AMD nazwało swój odpowiednik K5, a jego kolejnych następców K6 i K6-II. Ostatni rok tej epoki zaowocował też procesorami, które wielu użytkowników do dziś pamięta jako swoje pierwsze AMD, czyli procesory K7, które otrzymały handlową nazwę Athlon. Wraz z tą generacją ostatecznie “rozeszły się” też płyty główne dla obydwu producentów. Odtąd widzieliśmy już różne sockety dla AMD i Intela.
Pierwsza dekada XXI wieku – “Genialny klan”
Na początku obecnego stulecia AMD miało wszelkie powody do zadowolenia. Pokazany w 2001 roku AMD Athlon XP, usprawniony dwa lata później dzięki podwojonej pamięci podręcznej (wówczas 512 KB L2 to było coś), skutecznie rywalizował z Pentium III, a później z Pentium IV. AMD właśnie w tej dekadzie pokazało, że potrafi tworzyć produkty naprawdę innowacyjne. Najpierw jako pierwsze, bo już w 2003 roku, pokazało 64-bitowy CPU zgodny z X86 (AMD Athlon 64), następnie w 2005 r. prezentując pierwszą jednostkę dwurdzeniową (AMD Athlon 64 X2). Technologicznie to były niezmiernie istotne kroki. Na nieszczęście AMD, Intel wyciągnął wnioski z niezbyt udanej architektury NetBurst i sięgnął po rozwiązania, które stosował z powodzeniem w laptopach – niekwestionowanym do tej pory bastionie “niebieskich”. To własnie wzrost popularności komputerów mobilnych ukazał jedną słabość AMD – rywal firmy zdecydowanie lepiej dogadywał się z producentami OEM. Procesory AMD Turion 64 i Turion 64 X2 nie znalazły szczególnego uznania wśród użytkowników – trafiały często do niezbyt dopracowanych konstrukcji. W drugiej połowie dekady AMD zaczęło więc tracić wpływy, a nowe flagowe procesory, AMD Phenom, miały okazać się schyłkową serią dobrej dla AMD epoki. Nastał czas Intel Core.
Jednak w tej dekadzie wydarzyło się coś jeszcze. W 2006 roku, kiedy AMD wciąż zarabiało krocie na swoich procesorach, postanowiło zainwestować te pieniądze w dość niecodzienny zakup – kupiło firmę ATI – kanadyjskiego producenta układów graficznych. I to, przynajmniej z biznesowego punktu widzenia, było najważniejszym ruchem AMD w tej dekadzie. Ruchem, który prawdopodobnie ocalił AMD w następnych latach.
Druga dekada XXI wieku – “Wróg numer jeden”
Każdy może mieć czasem spadek formy. Dla Intela była to epoka Pentium IV, dla AMD czas od 2009 do 2017 roku. Większość kończącej się właśnie dekady kalifornijska firma może zaliczyć do najsłabszych lat w swojej historii. Trzeba jednak przyznać, że AMD potrafiło wyciągnąć wnioski. Kolejne generacji układów AMD FX czy APU AMD A4/A6/A8/A10/A12 nie przyniosły firmie szczególnych sukcesów. Nie sposób było odmówić im pewnej innowacyjności, ale wydajność względem konkurenta pozostawiała bardzo dużo do życzenia. AMD właśnie wówczas wykorzystało swój nabyty w 2006 roku atut – układy graficzne. Koncepcja APU, a więc połączenia procesora i wydajnego układu graficznego w jednym produkcie może nie przyjęła się znakomicie w komputerach, ale to właśnie na układach AMD Jaguar pracowały zaprezentowane pod koniec 2013 roku konsole Sony i Microsoftu. I to właśnie konsole uratowały AMD. Zdobyte w ten sposób środki AMD przeznaczyło na rozwój, by w lutym 2017 roku “powrócić” na rynek CPU.
Powrót ten to oczywiście układy AMD Ryzen – procesory, które zdobyły sobie uznanie użytkowników na całym świecie, w tym testerów i recenzentów. Przez dekadę dominacji Intel nieco osiadł na laurach i niewątpliwie to właśnie “niebiescy” są aktualnie na etapie zadyszki. Ryzeny wdarły się szturmem na pozycje zajmowane przez Intel Core i7 i spółkę. Co więcej, nawet w zdominowanych silnie przez Intela rynkach serwerowym (AMD EPYC) oraz HEDT (AMD Threadripper) AMD zdobywa sobie coraz więcej użytkowników. Wyjątek stanowią właściwie tylko komputery mobilne. AMD nadal nie jest w stanie przekonać do siebie producentów laptopów, a gdy już pojawiają się modele z mobilnymi Ryzenami, bardzo często są projektowane z dość nonszalanckim podejściem do zdrowego rozsądku (jak choćby stosowanie jednokanałowej pamięci w laptopach ze zintegrowanym GPU AMD Radeon Vega). W pozostałych segmentach, 50-letnie dziś AMD, święci triumfy. A co w przyszłości?
Lata 20., lata 30. – “Arrival”, inaczej “Nowy początek”
Uwaga, puszczamy wodze fantazji. O ile nietrudno przewidzieć ogólne trendy dla wczesnych lat 20. naszego stulecia, to im dalej w przyszłość, tym trudniej o proroctwa. Wieszczymy jednak, że najbliższe lata AMD to procesory w 7 nm procesie technologicznym, którym wyprzedza Intela zmagającego się z 10 nm (chociaż należy pamiętać, że to tak naprawdę marketingowe określenia, a temat litografii jest znacznie bardziej złożony, przeczytacie o tym artykule poniżej). Do tego szykują się już nowe generacje konsol, także wykorzystujące układy AMD. Możliwe, że w końcu do procesorów AMD przekonają się producenci laptopów. Z całą pewnością AMD będzie stawiało dalej na wzrost liczby rdzeni, możliwy dzięki ich zmniejszeniu. Podobnie zresztą zrobi Intel.
Największe zmagania będą jednak dotyczyły nawet nie tyle architektury, ile inżynierii materiałowej. To ta dziedzina stanowi podstawę dla rozwiązania problemu wydzielania ciepła i procesu wytwarzania kolejnych procesorów. Co więcej, przepowiadany od dawna koniec epoki krzemu może być tym razem rzeczywiście okazać się prawdziwy. Na szczęście nie będziemy musieli się tym przejmować. Zapewne pod koniec następnej dekady udział człowieka w projektowaniu procesorów będzie już marginalny. Sztuczna inteligencja powinna nas wyręczyć, a to może prowadzić do ciekawego zjawiska – producent, który szybciej opanuje produkcję bardziej wydajnych jednostek dla SI, zacznie szybciej “uciekać” konkurentowi. Jego szybsza SI będzie skuteczniej projektowała kolejne generacje układów. | CHIP
A w śródtytułach, jak zapewne się zorientowaliście, wykorzystaliśmy tytuły filmów w danej dekadzie popularnych.