NVIDIA w rozwoju sprzętów przeznaczonych do obliczeń sztucznej inteligencji… sama korzysta ze sztucznej inteligencji
Przed sześcioma laty NVIDIA pokazała światu akcelerator Tesla P100 z procesorem graficznym GP100 z ogromną wtedy liczbą 15,3 miliarda tranzystorów w krzemie o wielkości 610 mm kwadratowych. W 2020 roku premierę zaliczył GA100 o wielkości 828 mm2, który miał już w sobie niebywałe 54,2 miliarda tranzystorów, a w marcu bieżącego roku doczekaliśmy się wprawdzie mniejszego (mierzącego 814 mm2), ale bogatszego w tranzystory (ma ich aż 80 miliardów) rdzenia GH100, który wraz z pamięcią stanowi podstawę akceleratorów H100.
Czytaj też: Menedżer haseł Google Chrome zrobi użytek z czytnika linii papilarnych w laptopach
Procesor GH100 jest produkowany z wykorzystaniem procesu produkcyjnego TSMC N4, a nie N7 jak GA100, co (pomijając różnice w architekturze) jednoznacznie wyjaśnia powód różnicy w liczbie tranzystorów. W pełnej implementacji GH100 ma do zaoferowania 144 klastrów (SM), a to przekłada się na 18432 rdzeni CUDA (FP32), co oznacza, że każdy klaster zapewnia 128 rdzeni FP32. Niedawno NVIDIA ogłosiła, że wykorzystuje sztuczną inteligencję do projektowania i rozwijania procesorów graficznych, które są znacznie lepsze od tych stworzonych przez ludzi i wygląda na to, że flagowy układ GPU Hopper zielonej ekipy jest świadectwem tego stwierdzenia, gdyż zawiera prawie 13000 instancji obwodów, które zostały w całości stworzone przez Sztuczną Inteligencję.
Czytaj też: Tych dwóch producentów kontroluje cały rynek smartfonów. O które firmy chodzi?
W ogólnym rozrachunku, GPU firmy NVIDIA są w większości projektowane przy użyciu najnowocześniejszych narzędzi EDA (Electronic Design Automation). Jednak nie tylko, bo NVIDIA wspomaga ten proces systemem sztucznej inteligencji PrefixRL, który odpowiada za optymalizację równoległych obwodów prefiksowych przy użyciu głębokiego uczenia się. Dzięki temu rozwiązaniu firma może projektować mniejsze, szybsze i bardziej energooszczędne układy, zapewniając przy tym jednocześnie wyższą wydajność.
Czytaj też: Już nie dwa, a trzy rodzaje rdzeni w procesorach Intela? Core 14. generacji mogą wiele zmienić
NVIDIA wykorzystała tę metodologię do zaprojektowania blisko 13000 układów wspomaganych przez SI, dzięki czemu zaoszczędziła aż 25% miejsca, które zajęłaby ta sama implementacja, ale z wykorzystaniem narzędzi EDA. Zanim jednak NVIDIA mogła spijać śmietankę ze swojego unikalnego podejścia, musiała opracować specjalną platformę SI (Raptor), która pozwoliła wymagającemu obliczeniowo modelowi PrefixRL wykonywać szybciej swoją pracę.