Mimo masowej i dokładnie rozplanowanej produkcji układ układowi nigdy nie będzie równy. Podobnie jak własnoręcznie wyprodukowane dzieła przez rzemieślnika
Wyobraźcie sobie, że zajmujecie się hobbistycznym wyrobem koszyków z wikliny. Pleciecie każdy egzemplarz z tego samego materiału i w ten sam sposób, ale finalnie i tak możecie dostrzec, że te różnią się od siebie. Zdarza się nawet, że niektóre kompletnie nie spełniają standardów jakości, bo fragment materiału był akurat niższy, więc dzielicie swoje dzieła na te najlepszej jakości, niższej i takiej, która nie nadaje się do pierwotnego zastosowania. Takiego rodzaju chałupnicza, ręczna praca jest podatna na różnice w jakości produktu.
Czytaj też: Czym jest NFT? Niewymienialne tokeny mają swoje dobre i złe strony… zupełnie jak kryptowaluty
Choć mogłoby się wydawać, że przekuwając produkcję z chałupniczej na tą masową z udziałem zautomatyzowanych systemów i sprzętów wady zostaną całkowicie wyeliminowane, a owoce prac ujednolicone, to w przypadku układów krzemowych wcale tak nie jest. Przez naturę ich produkcji różnice jakości są zauważalne nie tylko w tej samej partii układów, ale nawet układów z tego samego wafla krzemowego (podstawowego materiału produkcyjnego w formie cienkiej płytki monokrystalicznego krzemu).
Ich różnorodność jest więc ogromna i można nawet pokusić się o stwierdzenie, że żaden układ nie ma swojego idealnego sobowtóra. Zanim trafi do naszego komputera, czy telefonu, musi zostać naświetlony, skąpany w roztworze wyżerającym luki na składające się z trzech elektrod tranzystory w skali nanometrowej (5nm odpowiada 5 × 10-7 centymetra), a następnie zbombardowany jonami po uprzednim naniesieniu emulsji światłoczułej. Różnice pojawiają się głównie na etapie naświetlania, bo nawet fotolitografia EUV (obecnie stosowana) nie jest w 100% precyzyjna.
Proces jest powtarzany kilkukrotnie, aby finalnie powstał np. procesor z wszystkimi elementami rozplanowanymi i zaprojektowanymi przez inżynierów (na tym oczywiście proces produkcji się nie kończy, ale wystarcza do zrozumienia loterii krzemowej). Warto tutaj podkreślić, że te układy są jednocześnie z jednej strony najtańszym, a z drugiej najdroższym i najbardziej zaawansowanym elementem komputerów. Wszystko przez to, że sam surowiec wykorzystywany do ich produkcji jest relatywnie tani, ale proces produkcji oraz projekt już nie.
Czytaj też: Dlaczego gramy w gry? Badanie odpowiada jacy są Polscy gracze
Finalnie tak przygotowany wafel, którego budują setki, a nawet tysiące układów krzemowych (zależnie od wielkości wafla i samych układów), jest poddawany testowi. Obejmuje to maszynowe i zautomatyzowane skanowanie połączeń, mierzenia napięcia, czy przeprowadzania podstawowych operacji obliczeniowych. Na tym etapie ocenia się jakość poszczególnych układów i dzieli je stosownie wedle niej przed rozpoczęciem “przydziału”, pakowania na laminat i ukrycia pod IHSem (odpromiennikiem ciepła).
Od tego, jaką jakość będą sobą prezentować, zależy jego finalne przeznaczenie i najlepiej przywołać tutaj przykład Intela i jego najnowszych procesorów. Stacjonarne wersje procesorów Alder Lake-S są budowane wokół dwóch odmiennych wersji układu krzemowego. Mowa o matrycy C0 oraz H0, które mierzą kolejno 215,25 i 162,75 mm kwadratowych i składają się odpowiednio z 8 rdzeni Performance i 8 rdzeni Efficiency (C0) oraz wyłącznie 6 rdzeni Performance (H0)
Intel uznał za stosowne podzielenie całej rodziny właśnie na te dwie wersje układów krzemowych z racji oszczędności, bo połowa modeli Core 12. generacji nie posiada hybrydowej konfiguracji rdzeni i stawia tylko na te główne (Performance). Zwykle jednak produkcja obejmuje jedną wersję matrycy krzemowej, która następnie jest stosownie okrajana z możliwości (liczby rdzeni, wysokości taktowania i napięcia).
Jak możecie się domyślać, nie obejmuje to po prostu ograniczania Ryzena 5800X, czy Core i9-12900K do poziomu Ryzena 3, czy Core i3, bo byłaby to zwyczajna strata pieniędzy ze strony firm. Te do podzielenia swojej oferty wykorzystują właśnie niezmienną od lat tendencję procesu produkcji do generowania różnej jakości układów. Tak też układ oferujący teoretycznie 8 rdzeni, może zostać ograniczony do 6, 4, a nawet 2 i to samo tyczy się jego taktowania maksymalnego i podstawowego, a nawet poziomu pobieranej energii. Widać to świetnie poniżej:
Czytaj też: Intel wycina siłą instrukcje AVX-512 z platform Alder Lake. Czy jest czego żałować?
Podobną strategię realizuje się również na rynku kart graficznych, gdzie na podstawie m.in. procesora graficznego GA102 z maksymalną liczba 10752 rdzeni CUDA tworzy się szereg wersji:
- GA102-350 – GeForce RTX 3090 Ti – 10752 rdzeni CUDA
- GA102-300 – GeForce RTX 3090 – 10496 rdzeni CUDA
- GA102-225 – GeForce RTX 3080 Ti – 10240 rdzeni CUDA
- GA102-220 – GeForce RTX 3080 12 GB – 8960 rdzeni CUDA
- GA102-220 – GeForce RTX 3080 10 GB – 8704 rdzeni CUDA
- GA102-100 – CMP 90HX – 6400 rdzeni CUDA
Czym więc dokładnie jest loteria krzemowa, której wpływ na procesory słabnie z roku na rok?
To naturalne, że procesory najwyższej jakości trafiają do możliwie najwydajniejszych dla swojego poziomu i im więcej różnych modeli producent jest w stanie wygenerować na ich podstawie, tym mniejsze jest zjawisko “loterii krzemowej”. Jednak nie da się ujednolicić wszystkich procesorów w ramach jednego modelu mimo nawet gęstego podziału (patrz Core i5-12600/12500/12400) i wtedy właśnie do gry wchodzi loteria krzemowa.
Czytaj też: Odkryto lukę bezpieczeństwa dysków SSD. Złośliwe oprogramowanie może nigdy nie zostać wykryte
Sprowadza się ona do tego, że cały nakład produkcyjny danego procesora możemy podzielić na jedne z najlepszych, najgorszych i “zwyczajnych próbek”. Tych ostatnich jest najwięcej i naturalnie tych dwóch pierwszych najmniej, bo to skrajności, których jednak nie da się uniknąć. Każdy egzemplarz spełnia przy tym bezwzględnie wskazywane przez producenta możliwości i dobrze, bo dzięki temu loteria krzemowa omija klientów, którzy nie dążą do najwyższego taktowania i jednocześnie napięcia/temperatur.
Zabawa zaczyna się więc przy podkręcaniu, bo wtedy tak zwane “Golden Samples”, czyli układy o najwyższej jakości, są często kluczem do bicia nowych rekordów wydajności. Dlatego też są cenione przede wszystkim przy flagowych procesorach, bo “wyżej” w kwestii poszukiwania rekordowej wydajności zwyczajnie wyjść się nie da… choć powoli zmierza to ku końcowi. Wszystko właśnie przez coraz dalej zakrojone zawężanie oferty przez producentów, co podkreśla zwłaszcza upadek sklepu Silicon Lottery, który zamknął się właśnie przez m.in. znaczne ograniczenie zjawiska loterii krzemowej.
Zamykamy stronę nie z jednego powodu, ale z wielu. Jak zapewne wiecie, możliwości podkręcania kurczyły się przez ostatnie kilka lat, kiedy to producenci oferowali wyższe częstotliwości, lepsze algorytmy podkręcania i ciaśniejsze różnice pomiędzy układami, co zmniejszało różnice w częstotliwości podkręcania (11900K jest w zasadzie wysokojakościowym 11700K, więc w przypadku 11900K selekcjonujemy to, co już było mocno przesiane przez gęste sito– możemy przeczytać na stronie Silicon Lottery.
Czytaj też: Wydajność zużytego SSD. Wykończyliśmy dysk, żebyście Wy nie musieli
Wzmianka o Core i9 11900K daje nam świetny powód do tego, aby wspomnieć o nowym przejawie “selekcjonowania flagowców” w wykonaniu Intela, bo to, co dawniej wyszukiwaliby entuzjaści i m.in. sklep Silicon Lottery, teraz firma wyszuka sama. Mowa o specjalnej wersji Core i9-12900K w postaci Core i9-12900KS. Nieoficjalnie wspomina się, że taktowanie dla wszystkich 8 rdzeni Performance tego najwydajniejszego Alder Lake-S w trybie Boost wzrośnie o 200 MHz, czyli do 5,2 GHz. Jednak jak wiedzą wszyscy ci, którzy interesują się testami i9-12900K, taki poziom jest dosyć nierealny, bo zależny od obciążeń i warunków. Przez to właśnie rdzenie Performance w i9-12900K rozkręcają się zwykle do maksymalnie 4,85/4,9 GHz.