Korporacje nie lubią pokazywać planów na przyszłość z datami, bo łatwo wypomnieć im niedotrzymanie terminów. A to prowadzi często do zwiększonej niepewności akcjonariuszy, co z kolei przekłada się zwykle na policzalne straty.

Google w październiku 2019 roku ogłosił osiągnięcie tzw. supremacji kwantowej, stworzenie maszyny potrzebującej ”minut na rozwiązanie problemu matematycznego, który najszybszym superkomputerom zabrałby tysiące lat”.

IBM zgłosił wówczas swoje wątpliwości co do faktycznej wydajności 54-kubitowego procesora Sycamore, ale szanse na ten cieszący marketingowe oko skok technologiczny już stracił. Choć mają obecnie silniejszy sprzęt niż Google (65 kubitów), wyścig na rozmiar pamięci i szybkość maszyny jest trudny, o ile w ogóle możliwy do wygrania.

W końcu maszyna H0 firmy Honeywell pobiła kwantowy komputer IBM w marcu tego roku. Reszta konkurencji też nie śpi. Firmy jak Microsoft, Intel, Amazon, IonQ, Quantum Circuits i Rigetti Computing cały czas powiększają swoje próżniowe chłodnie, by rozbudowywać trzymane tam obwody.

Wszystko sprowadza się do tego, która korporacja gotowa jest wydać więcej na skomplikowaną konstrukcję służącą (chwilowo) do rozwiązywania problemów natury czysto teoretycznej, której daleko do praktycznego zastosowania przy projektowaniu np. stopów metali czy baterii.

Nowe maszyny wprowadzające nasz świat w erę komputerów kwantowych, zdolne są gromadzić i przetwarzać więcej informacji niż tradycyjne urządzenia wykorzystują do tego potencjał mechaniki kwantowej.

”Zwykły” komputer bazuje na danych zapisanych jako ciąg zer i jedynek. Informacja dla niego może występować tylko w jednym z tych stanów. Albo zero, albo jedynka. Komputery kwantowe bazują na bitach kwantowych, czyli kubitach właśnie, które jednocześnie mogą być kombinacją zer i jedynek.

Ta różnica przekłada się na większą moc obliczeniową, ale przede wszystkim pozwala na prowadzenie obliczeń wyjaśniających zagadnienia świata fizyki kwantowej, których ”ruszyć” nie mają jak najsilniejsze nawet klasyczne superkomputery.

Kierownictwo IBM w notatce na blogu firmy dało wyraz swoim aspriacjom związanym z rozwojem komputerów kwantowych. Ambitny plan zakłada stworzenie do 2023 roku maszyny Condor posiadającej ponad 1000 kubitów.

Po drodze do celu powstać mają jeszcze procesory 127 i 433 kubitowe, odpowiednio w 2021 i 2022 roku. Ich zadaniem będzie zapanowanie nad kwantowym chaosem jaki panuje w sercach coraz bardziej skomplikowanych komputerów.

Gdzieś w tle jest wizja stworzenia maszyny z milionem kubitów (daty nie podano; szefostwo Google twierdzi, że im potrzeba na to dekady), czyli właściwym poziomem mocy obliczeniowej potrzebnym (według obecnej wiedzy) na zgłębienie problemów fizyki kwantowej.

O ile 1121-kubitowe cacko nadal będzie dławić się przez skomplikowanie tego wymiaru naszej rzeczywistości, to da radę wyłapać i naprawić błędy we własnym systemie. W tym celu IBM korzysta z pomocy firmy Q-CTRL tworzącej oprogramowanie optymalizujące systemy kontroli i wydajności poszczególnych kubitów.

Problemem jest ów dodatkowy jego stan. Jakakolwiek interakcja powoduje, że kubit traci swoją nietypową naturę. Rolą systemów korekcji błędów jest utrzymywanie stanu tzw. logicznego kubita, gdzie informacja rozłożona jest równo pomiędzy wszystkie schłodzone (w okolicę zera absolutnego) super przewodzące metalowe obwody.

Komputer posiadający 1121 kubitów byłby w stanie zapanować nad kilkoma równolegle istniejącymi logicznymi kubitami tak, by mogły jeszcze wchodzić między sobą w interakcję.

Dopiero mając taką maszynę można zacząć planować komputery posiadające tysiące logicznych kubitów, przy których praca naukowców skupiać się będzie nie na naprawianiu błędów w poszczególnych obwodach, a na optymalizacji wydajności całego systemu.

Tymczasem IBM już buduje olbrzymią lodówkę wypełnioną ciekłym helem, kriostazę zdolną pomieścić komputer z 1 mln kubitów.