Największym procesorem kwantowym na świecie jest procesor zbudowany z 1125 kubitów. Tak rekordowy chip został zaprezentowany zaledwie dwa miesiące temu przez firmę Atom. Opisywany tutaj procesor Quantum Condor firmy IBM bardzo zbliżył się do tego rekordu, bowiem posiada 1121 kubitów. Aktualnie jest to zatem drugi co do wielkości układ przeznaczony do obliczeń kwantowych.
Czytaj także: Pierwszy taki komputer kwantowy w historii. Nowe urządzenie ma rekordową liczbę kubitów
Można by pomyśleć, że jest to powód do dumy i okazja do zaprezentowania komputera kwantowego nowej generacji, który będzie wyposażony właśnie w taki procesor. Zamiast tego, naukowcy poinformowali, że w System Two, czyli komputerze kwantowym nowej generacji IBM planuje zastosować procesory niemal dziesięciokrotnie mniejsze. Więcej, badacze wskazują, że żaden z procesorów linii Condor nie trafi do komputerów linii System Two.
Dlaczego 133 kubity są lepsze niż 1121 kubitów?
Do napędzania komputerów nowej generacji specjaliści z IBM zamiast jednego procesora kwantowego linii Condor planują wykorzystać kilka także nowych procesorów linii Quantum Heron, z których każdy ma na swoim pokładzie 133 kubity. Skąd taki pomysł?
Tutaj należy wyjaśnić pokrótce różnice pomiędzy komputerami konwencjonalnymi a kwantowymi. Kiedy standardowy komputer wykonuje obliczenia, przechowuje informacje w bitach, które mogą przyjmować wartość albo 0 albo 1. Komputer kwantowy działa jednak inaczej. Wykonywane za jego pomocą obliczenia opierają się na znanym z mechaniki kwantowej zjawisku supozycji, w którym cząstki mogą jednocześnie występować w wielu stanach. To z kolei oznacza, że jeśli poszczególne kubity zostaną ze sobą złączone w taki sposób, że ich zachowania staną się ze sobą splątane, kubity podczas obliczeń będą mogły istnieć we wszystkich stanach jednocześnie. Efekt skali sprawia, że dodając nowe kubity, dramatycznie skaluje się także liczba występujących jednocześnie stanów obliczeniowych. To z kolei drastycznie skraca czas wykonywania obliczeń.
Warto tutaj jednak wspomnieć, że do pokonania skutecznością najszybszych współczesnych superkomputerów, komputery kwantowe musiałyby posiadać procesory z milionami kubitów. Ten etap wciąż jeszcze przed nami.
Jak wszystkie inne rozwiązania technologiczne, także komputery kwantowe nie są wolne od słabych stron. Jak na razie komputery kwantowe są bardzo podatne na błędy. O ile komputer klasyczny wykonuje błędnych obliczeń raz na miliard miliardów, o tyle komputery kwantowe popełniają błędy średnio raz na tysiąc. Warto tutaj pamiętać, że do obniżenia liczby błędnych obliczeń procesory kwantowe należy utrzymywać w pobliżu zera absolutnego, a im więcej kubitów na procesorze, tym jest to trudniejsze.
Czytaj także: Miała być rewolucja, ale czy będzie? Obecne komputery kwantowe stanowią zagwozdkę
Z tego właśnie powodu specjaliści z IBM wolą zastosować w komputerze nowej generacji po trzy procesory linii Quantum Heron. Choć każdy z nich posiada “zaledwie” 133 kubity, to jednak współczynnik występowania błędów jest w ich przypadku pięciokrotnie niższy niż w przypadku gigantycznego Quantum Condora.
Nie zmienia to faktu, że procesory linii Condora są dla rozwoju całego sektora niezwykle przydatne. W toku ich opracowywania badacze musieli zmierzyć się z problemami mechanicznymi uniemożliwiającymi wydajne chłodzenie tak dużego procesora. W toku prac okazało się, że istnieją sposoby stosunkowo prostego chłodzenia procesora tego typu. Rozwiązanie to następnie wykorzystano podczas budowy procesorów linii Quantum Heron, które zainstalowano w komputerze System Two, który stał się pierwszym komputerem kwantowym o architekturze modułowej. Taka konstrukcja sprawia, że w razie potrzeby, będzie można do niego dodać kolejne kubity.