Kiedy komputery kwantowe udowodnią przydatność? Eksperci podali możliwą datę
Komputery kwantowe w ostatnich latach stają się coraz potężniejsze i stabilniejsze, ale ich przydatność wciąż pozostawia wiele do życzenia. Maszyny zdolne do łamania najbardziej złożonych szyfrów czy przewidywania reakcji chemicznych z atomową precyzją mogą wydawać się pieśnią przyszłości, jednak ostatnie dwa lata przyniosły drastyczną zmianę nastrojów. Eksperci coraz częściej wierzą, że supremacja kwantowa to już nie science fiction, lecz kwestia najbliższej dekady.

Spis treści:
- Kiedy komputery kwantowe udowodnią swoją przydatność?
- Przełomowa dekada. Te optymalizacje zbliżają nas do ery kwantowej
- Nie "czy", tylko "kiedy" maszyny kwantowe przyniosą nam praktyczne korzyści
Kiedy komputery kwantowe udowodnią swoją przydatność?
Idea komputerów kwantowych narodziła się na polu teoretycznym w latach 70. XX w., a pierwsze implementacje zaczęły powstawać dwie dekady później. Kolejne lata odznaczały się m.in. rosnącą skalą tych maszyn i wzrostem ich stabilności. Przykładowo w 2025 r. opisywaliśmy w GeekWeeku najpotężniejszy komputer kwantowy z ponad 6100 kubitami, a producenci tacy jak IBM mają w planach budowę maszyn nawet z 10 tysiącami, a nawet milionem kubitów w przyszłości.
Wciąż jednak trochę brakuje do osiągnięcia supremacji kwantowej, czyli stanu, w którym komputery kwantowe będą potrafiły w rozsądnym czasie prowadzić obliczenia niemożliwe lub ekstremalnie długotrwałe w przypadku klasycznych superkomputerów krzemowych. Nie istnieje sztywna granica, która wyznaczyłaby ten moment. Google ogłosił go już w 2019 roku, choć jego rywale mocno z tym polemizowali.
Nawet jeśli dzisiejsze komputery kwantowe mogą zachwycać jako cuda inżynierii, to nadal nie są one zbyt przydatne ani naukowcom, ani ekologom, ani zwykłym użytkownikom. Nie łamią szyfrów, nie wynajdują nowych substancji chemicznych ani nie modelują skomplikowanych procesów naturalnych. Te funkcje w pewnym ograniczonym zakresie pełni dziś raczej sztuczna inteligencja odpalana w chmurze.
Choć wcześniej panowało przekonanie, że w prawdziwą erę kwantową wkroczymy dopiero za wiele dekad, to od paru lat rośnie liczba ekspertów, którzy rozpatrują ten skok w perspektywie najbliższego dziesięciolecia. Jedną z nich jest Nathalie de Leon z Princeton University, która mówi o "zmianie wibracji" w całym sektorze. Zdaniem specjalistki od eksperymentalnej fizyki kwantowej "ludzie zaczynają się teraz przekonywać".
W odróżnieniu od bańki AI, traktowanej raczej ze sceptycyzmem, ten optymizm w środowisku naukowym nie wynika z czczych obietnic, lecz z serii konkretnych sukcesów technologicznych, które sprawiły, że granica dziesięciu lat na stworzenie w pełni funkcjonalnej, odpornej na błędy maszyny kwantowej stała się realnym celem.
Przełomowa dekada. Te optymalizacje zbliżają nas do ery kwantowej
Co się zmieniło w ostatnich latach? Przede wszystkim największa bariera w historii informatyki kwantowej została pokonana. Rozwiązano problem błędów i niestabilności. Klasyczne komputery binarne, takie jak twój laptop lub smartfon, operują na bitach. Są one albo zerem, albo jedynką. Komputery kwantowe wykorzystują zaś kubity, które mogą znajdować się w kontinuum stanów między tymi wartościami. Daje im to ogromną przewagę w mocy obliczeniowej, ale sprawia też, że są one "kapryśne" i niezwykle wrażliwe na najmniejsze zakłócenia zewnętrzne, takie jak pole elektromagnetyczne czy zmiana temperatury. Przez lata obawiano się, że same operacje naprawcze będą generować więcej błędów, niż są w stanie usunąć.
Ostatni rok przyniósł jednak przełom. Cztery kluczowe ośrodki - Google Quantum AI, Quantinuum, Harvard wraz ze start-upem QuEra oraz chiński zespół z USTC - udowodniły, że technika kwantowej korekcji błędów działa nie tylko na papierze, ale i w praktyce. Sukces zapewniło wykorzystanie tzw. kubitów logicznych, gdzie pojedyncza jednostka informacji jest rozproszona na wiele fizycznych kubitów. Dzięki temu system może wykryć degradację informacji i ją naprawić, zanim ta bezpowrotnie zniknie. Co najważniejsze, zespoły te przekroczyły matematyczny próg wydajności i po raz pierwszy w historii proces korekcji błędów rzeczywiście redukuje ich liczbę, zamiast ją powiększać.
To osiągnięcie otworzyło drogę do dalszych optymalizacji, o których jeszcze niedawno można było sobie pomarzyć. Dawniej szacowano, że stabilny komputer kwantowy, zdolny do łamania szyfrów, będzie potrzebował miliardów fizycznych kubitów. Obecnie, dzięki rozwijającym się optymalizacjom, liczby te spadają w zawrotnym tempie. Przykładowo w 2025 roku Craig Gidney z Google wykazał, że odpowiednie ułożenie schematów bramek w trójwymiarowe struktury pozwala zmniejszyć liczbę kubitów z 20 milionów do zaledwie 1 miliona. IBM z kolei udoskonalił technikę, która pozwoli obniżyć liczbę kubitów fizycznych wymaganych do uzyskania 1 stabilnego kubitu logicznego z 1000 do 100.
Inżynierowie z Princeton zdołali wydłużyć czas życia kubitów nadprzewodzących z ułamków milisekundy do ponad półtorej milisekundy, wymieniając standardowe materiały na tantal i krzem izolacyjny. Zespoły z Oxfordu i start-upy takie jak Quantum Transistors osiągnęli zaś niespotykaną wcześniej precyzję operacji na bramkach, wynoszącą 99,999%. Dzięki temu maszyna kwantowa potrzebuje znacznie mniej kroków naprawczych.
Nie "czy", tylko "kiedy" maszyny kwantowe przyniosą nam praktyczne korzyści
Jak twierdzi Chris Langer, amerykański fizyk z Quantinuum w Broomfield (Colorado), wspomniane wyżej osiągnięcia to wciąż tylko "bohaterskie eksperymenty" optymalizujące jeden podzespół, a nie w pełni funkcjonalne systemy. Ich integracja wciąż pozostaje sporym wyzwaniem inżynieryjnym. A jest ona potrzebna, by te rozwiązania zyskały wreszcie wymiar pragmatyczny. Z kolei John Martinis, laureat Nagrody Nobla z dziedziny fizyki z 2025 roku i były już badacz w Google, przypomina, że kwantowy łańcuch jest tak silny, jak jego najsłabsze ogniwo. Również on ma pomysł na dalsze ulepszenia.
Nowy projekt noblisty, realizowany we współpracy z gigantami przemysłu półprzewodnikowego, zakłada stworzenie gigantycznych, 300-milimetrowych chipów, które pomieściłyby dziesiątki tysięcy kubitów wewnątrz jednej standardowej lodówki kriogenicznej. Pozwoli to wyeliminować tysiące kabli łączących chip z elektroniką zewnętrzną, zastępując je systemami zintegrowanymi wewnątrz urządzenia. To kolejny milowy krok, który może pozwolić na upchnięcie setek tysięcy kubitów w jednej maszynie.
Jak widać, prace inżynieryjne są już na dość zaawansowanym etapie, ale... to samo mówiło się w poprzedniej dekadzie. Pytanie o konkretną datę osiągnięcia przełomu kwantowego, w którym ta technologia stanie się prawdziwie użyteczna i odporna na błędy, pozostaje otwarte. Widełki czasowe uległy jednak znacznemu zwężeniu. Google podtrzymuje swoje stanowisko. "Zawsze mówiliśmy, że dostarczymy [komputery kwantowe] do użytku końcowego do końca tej dekady i to się nie zmieniło" - powiedział Hartmut Neven, kierujący działem kwantowym giganta z Mountain View. IonQ także chce wypuścić zadziwiająco sprawne maszyny przed rokiem 2030. Nawet bardziej sceptyczni eksperci fizyki kwantowej, tacy jak Chao-Yang Lu z Chin, przesunęli swoje prognozy z połowy tego stulecia na rok 2035.
Jeśli tempo rozwoju z ostatnich dwóch lat zostanie utrzymane, dzięki komputerom kwantowym i rozwijającej się równie prężnie silnej sztucznej inteligencji lata 30. XXI wieku przyniosą rewolucje w medycynie, genetyce, materiałoznawstwie czy cyberbezpieczeństwie, o jakich jeszcze niedawno wielu bało się nawet marzyć. To już nie jest pytanie "czy", ale "kiedy".
Zobacz również:
Źródło: Davide Castelvecchi, Quantum computers will finally be useful: what's behind the revolution, Nature 650, 24-26 (2026). DOI: https://doi.org/10.1038/d41586-026-00312-6










