Technologie
Prawda o komputerze kwantowym Microsoftu. „Mamy pół kubitu”

Autor. Pixabay.com
Ostatnio w przestrzeni medialnej pojawiło się wiele informacji dotyczących Majorana 1 - nowego układu kwantowego Microsoftu. Udało nam się porozmawiać prof. Michałem Oszmańcem z Centrum Fizyki Teoretycznej PAN, który odniósł się do faktów.
Prof. Michał Oszmaniec - fizyk teoretyczny, specjalizujący się w informatyce kwantowej i kwantowej teorii informacji. Jego badania koncentrują się na algorytmach kwantowych, wpływie statystyk kwantowych na przewagę obliczeniową oraz złożoności losowych obwodów kwantowych. Wniósł istotny wkład w rozwój obliczeń kwantowych opartych na fermionach, klasycznych symulacji układów kwantowych oraz analizy struktury pomiarów kwantowych. Uzyskał stopień doktora w CFT PAN w 2015 roku, a następnie pracował jako badacz podoktorski w ICFO (Barcelona) oraz KCIK (Gdańsk). W 2023 roku został laureatem Nagrody Pieńkowskiego za swoje badania nad zastosowaniem uogólnionych pomiarów w komputerach kwantowych.

Autor. Archiwum prywatne prof. Michała Oszmańca
Topologiczny kubit
Oskar Klimczuk, CyberDefence24: Czym jest topologiczny kubit oraz jak różni się od logicznych i fizycznych?
Prof. Michał Oszmaniec, Centrum Fizyki Teoretycznej PAN: Kubit jest podstawową jednostką informacji kwantowej. Jeżeli mowa o klasycznym rodzaju informacji, to nie ma znaczenia, czy używamy do tego orientacji domen magnetycznych, kresek pisanych w zeszycie czy wykreślamy na kamieniu jakieś znaki, jak np. w Egipcie.
Należy przy tym dodać, że nawet klasyczna informacja ma różną odporność na błędy, choć w tym przypadku raczej zniszczenie – możemy sobie wyobrazić zapiski na papirusie, które muszą być odpowiednio zabezpieczone, aby nie zniknąć po upływie określonego czasu. Równocześnie hieroglify przetrwały po dziś dzień.
Różne typy kubitów mają inną odporność na wpływ otoczenia. Topolgiczne kubity były do tej pory przede wszystkim teoretyczną ideą, mówiącą o kodowaniu informacji kwantowej w układach fizycznych, cechujących się o wiele lepszą odpornością na wspomniane warunki.
W trójwymiarowej przestrzeni takie fundamentalne cząstki możemy podzielić na bozony bądź fermiony. Cząstki kwantowe są nierozróżnialne i jeśli zamienimy je miejscami, to tzw. funkcja falowa (obiekt opisujący stan układu kwantowego) może zmienić znak – dotyczy to fermionów. Tak jest w trójwymiarowym świecie, ale w dwuwymiarowym i jednowymiarowym jest większa swoboda, dzięki której poprzez przestawianie cząstek miejscami możemy wykonywać obliczenia kwantowe i procesować informację.
Istotne jest to, że w takich układach informacja nie jest zakodowana w jednym miejscu układu, tylko jest zdelokalizowana w całym układzie, przez co wierzymy, że takie systemy są bardziej odporne na działanie z otoczeniem i błędy. Chcę podkreślić, że to jest ładna, teoretyczna idea. Co więcej, wiodące schematy korekcji błędów są często bardzo mocno inspirowane właśnie pomysłami wywodzącymi się wywodzą z tzw. topologicznych obliczeń kwantowych, np. surface code.
Podsumowując, mamy fizyczne kubity, podatne na wpływy z zewnątrz. Kubity logiczne to nakładanie pewnych operacji, manipulowanie tymi fizycznymi, aby zmniejszyć błąd – np. 1000 kubitów fizycznych zamieniamy na jeden logiczny, dzięki czemu zmniejszamy błąd. Kubity topolgiczne również wymagają korekcji błędów, lecz wierzy się, że na poziomie fizycznym te pierwotne błędy są mniejsze.
Gdybyśmy je mieli, to byłoby to coś bardzo korzystnego. Według mojej wiedzy obecnie ich nie mamy.
Nowe doniesienia Microsoftu
W przestrzeni medialnej pojawiła się informacja o tym, że w firmie Microsoft podobno udało się osiągnąć taki topologiczny kubit. Co to tak naprawdę było?
Firma, tak jak wiele innych Big Techów,, próbuje inwestować w technologie kwantowe, przeznaczając przez lata ogromne środki w rozwój topologicznych kubitów. Skupiają się przede wszystkim na obliczeniach kwantowych z wykorzystaniem tzw. fermionów Majorany.
Ostatnio koncern ogłosił ważną publikację w czasopiśmie Nature, której towarzyszył spory medialny rozgłos. Duża trudność jest związana z wyprodukowaniem odpowiednich układów, jakie mogłyby kodować informacje w stanie topologicznym . W tej publikacji wymieniono konkretne materiały, które posłużyły do stworzenia pręta nadprzewodzącego, gdzie na jego krańcach mają znajdować się (kwazi) cząstki Majorany. We wspomnianym dokumencie zaproponowano i przetestowano konkretny schemat pomiarowy stanu układu, który byłby jedną z cegiełek koniecznych do stworzenia topologicznych kubitów.
Takie dwa urządzenia kodowałyby jeden kubit. Z kolei aby mieć dwa kubity, potrzeba z kolei aż pięciu takich zmodyfikowanych urządzeń. Do tej pory mamy więc „pół” kubitu oraz nie jest jasne, czy wyniki doświadczalne są na tyle przekonujące, aby stwierdzić, że ta materia jest w stanie topologicznym, co podnoszą m.in. fizycy materiałowi oraz fizycy specjalizujący się w materii skondensowanej.
Odróżniłbym to, co jest w samym artykule, od oświadczeń medialnych. Mamy pewien realny postęp naukowy, ale sama praca nie pokazuje nawet pojedynczego topologicznego kubitu.
Czy ten układ został przetestowany w praktyce?
Pewne jego aspekty zostały przetestowane, zaś do pełnego kubitu potrzebujemy drugiego układu. Trzeba jeszcze powiedzieć, że ci sami naukowcy, pracujący nad fermionami Majorany, tworzyli pewne publikacje, które były wycofywane.
Sceptycyzm i wycofywanie publikacji
Bardzo ciekawe. Jaka jest tego skala? To są jednostki, dziesiątki?
Chodzi o pojedyncze, ale ważne publikacje. Gdyby te prace się utrzymały, zasługiwałyby na dobre nagrody z fizyki.
Naszą branżową praktyką jest nadesłanie pracy do repozytorium ArXiv, przed publikacją w uznanym czasopiśmie. To jest otwarte repozytorium, gdzie naukowcy z całego świata mogą oceniać przyszłe publikacje. Mój i nie tylko mój sceptycyzm bierze się m.in. z tego, że wspomniana praca nie została w taki sposób opublikowana.
Czyli można powiedzieć, że sceptycyzm w branży bierze się z braku publikacji pełnych danych?
Z tego co wiem, na zamkniętym spotkaniu w Dolinie Krzemowej pokazano wyniki dotyczące układów, które miałyby kodować kilka kubitów topologicznych, lecz to jest trochę coś innego wobec możliwości poddania danej pracy pod recenzję środowiska, szczególnie jeśli chodzi o eksperymentalne dokonania.
Oczywiście gdyby im się to udało, byłoby super, bo to jest po prostu postęp. Ja też bym nie powiedział, że za trzy lata odpalimy algorytm Shora (służący m.in. do łamania RSA – przyp. red.), lecz mielibyśmy kolejny układ fizyczny, który jest potencjalne ciekawy pod kątem budowy skalowalnego komputera kwantowego. Obecnie mamy „pół” kubitu.
Kwantowa korekcja błędów i łamanie RSA
Czyli nawet jeżeli dałoby się wdrożyć w życie to o czym mówimy, nadal taki układ nie mógłby na przykład łamać szyfrów RSA?
Działanie układu składającego się z 20 kubitów można obecnie zasymulować na laptopie. To więc wciąż kwestia skalowania do większej ilości kubitów i korekcji błędów.
Jakie są największe wyzwania związane z kwantową korekcją błędów?
Aby zmniejszyć poziom błędów na poziomie logicznym, musimy mieć znacznie wiele fizycznych kubitów. Musimy je też monitorować i w adaptowany sposób „naprawiać” powstałe będy.
Po pierwsze, wyzwaniem jest tzw. overhead (nadmiarowość – przyp. red.) w ilości kubitów – zależna od platformy, ale rzędu ok. tysiąca przy obecnych błędach. Trzeba mieć większe układy, elektronikę, kontrolę i też te układy trzeba monitorować, nieustannie mierzyć.
Wyzwaniem jest też duży przepływ informacji – z tych układów wychodzą terabajty danych. To jest wyzwanie inżynieryjne, zaś sama redundancja zwalnia obliczenia. Na poziomie fizycznym implementacja bramki zajmuje kilkadziesiąt nanosekund do mikrosekund (w zależności od układu fizycznego realizującego kubity), z kolei na poziomie logicznym wydłuża się nawet kilkaset razy. Wykonanie pojedynczej operacji logicznej trwa całkiem sporo na komputerze kwantowym, więc to też takie praktyczne „wąskie gardło”.
Weryfikowanie informacji
W jaki sposób osoby nie będące fizykami kwantowymi mogą weryfikować informacje dotyczące rozwoju technologii kwantowych?
Na pewno warto zwrócić się ku autorytetom i patrzyć na same prace. Mogę rekomendować blog Scotta Aaronsona, który rozsądnie opisuje wydarzenia z przestrzeni medialnej. Drugą osobą, którą warto obserwować jest John Preskill – ma wielki autorytet wśród fizyków i informatyków, potrafi przy tym na chłodno skomentować pewne rzeczy.
Dziękuję za rozmowę.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Sztuczna inteligencja w Twoim banku. Gdzie ją spotkasz?
Materiał sponsorowany