Niedawno listę najszybszych komputerów świata otwierał składający się z 37 tys. procesorów komputer Cray XT5-HE Jaguar z wynikiem 1,7 petaflopa, czyli wykonujący 1,7 biliarda operacji w ciągu sekundy. Oznacza to, że maszyna jest w stanie obliczyć w ciągu kilkunastu minut tygodniową prognozę pogody dla całego świata, sprawdzić nanosekunda po nanosekundzie, co dzieje się we wnętrzu bomby atmowej albo w sześć minut obliczyć wszystkie klatki animacji składające się na film „Shrek 3”. Ale gdyby miał znaleźć najkrótszą drogę łączącą 25 miast – czyli wykonać zadanie, z którym musi się zmagać szef każdej dużej firmy kurierskiej, zwane w matematyce problemem komiwojażera – zajęłoby mu to jakieś 30 lat. Jaguar nie potrafiłby też złamać 128-bitowego szyfru, stosowanego do zabezpieczenia transakcji internetowych metodą „siłową” (przez sprawdzenie wszystkich kombinacji) – a właściwie dałby radę, tyle że za jakieś sześć biliardów lat.

Jak widać ludzkość zawsze znajdzie zastosowanie dla jeszcze szybszej maszyny liczącej. Amerykanie daliby wiele za komputer zdolny do łamania współczesnych szyfrów. Uczeni też mają wielki apetyt na moc obliczeniową – na przeliczenie czekają góry danych produkowanych w CERN czy podczas symulowania działania mózgu w komputerze. Jednak dotychczasowa technologia krzemowa przestaje się sprawdzać. Przyszłość należy do maszyn zupełnie nowej generacji, które już powstają – choć na razie głównie w laboratoriach naukowców.

KONIEC EPOKI KRZEMU


Od 1965 r. do dziś sprawdzała się reguła sformułowana przez Gordona Moore’a, założyciela firmy Intel. Każdy układ elektroniczny składa się z tranzystorów. Ich liczba w mikroprocesorach (a więc moc obliczeniowa komputerów) podwaja się co 24 miesiące. Teoretycznie nie jest więc źle – za nieco ponad sto lat superkomputery łamać będą szyfry 128- -bitowe w ciągu roku. Ale taka ścieżka prowadzi donikąd, ponieważ o wiele wcześniej okazałoby się, że jeden procesor musiałby być większy od całej Ziemi!

Zresztą reguła Moore’a trafi w ślepą uliczkę znacznie wcześniej. Upychanie więcej tranzystorów w mikroprocesorze staje się coraz trudniejsze, bo miniaturyzacja elektroniki sięga barier stawianych przez fizykę.

Potrafimy dziś budować układy z tranzystorów o powierzchni 32x32 nanometry (mieści się na niej około 80 tys. atomów krzemu). Intel – największy gracz na tym rynku – zapowiada, że wkrótce zmieści tranzystor w kwadracie o boku siedmiu nanometrów. Ale może mieć z tym poważne kłopoty. Do produkcji procesorów używane są wiązki skoncentrowanego światła – im mniejsze struktury chcemy uzyskać, tym krótszą falę musi mieć owo światło. Intel już teraz stosuje głęboki ultrafiolet, a jeśli zechce przesunąć granicę miniaturyzacji dalej, będzie musiał zastosować promieniowanie rentgenowskie – bardzo trudne do ujarzmienia w tak małej skali.

Na dodatek granica siedmiu nanometrów oznacza, że jeden tranzystor będzie zbudowany z zaledwie kilkudziesięciu atomów. A wówczas do głosu dojdą tajemnicze zjawiska kwantowe, które mogą nawet uniemożliwić działanie mikroprocesora w wyniku zakłóceń. Na szczęście można tego uniknąć. Wystarczy tylko zaprząc te „zakłócenia” do pracy.

PROGRAM NA NIEISTNIEJĄCY KOMPUTER


W 1985 r. prof. David Deutsch z University of Oxford zaproponował teoretyczny model komputera kwantowego. Od tego czasu matematycy zajmowali się pisaniem programów na komputery kwantowe, nie przejmując się zbytnio tym, że takowe nie istniały. Wystarczyło znać założenia, a te były bardzo interesujące.

Komputery kwantowe mogą bowiem wykorzystywać zjawisko splątania. Polega ono na tym, że w świecie fizyki kwantowej następuje przedziwna i nie do końca zrozumiała relacja między cząstkami elementarnymi, takimi jak elektrony. Gdy uda nam się je do siebie „upodobnić” (np. zbliżając je do siebie), ich losy zostają ze sobą ściśle powiązane. Gdy potem zmienimy właściwości jednej cząstki, druga zareaguje taką samą zmianą – nawet jeśli będzie daleko. W przypadku komputerów oznacza to, że możemy przeprowadzać obliczenia równolegle na wielu różnych „frontach” – a to bardzo przyśpiesza wykonywanie zadania. Do tego dochodzi jeszcze wynalazek zwany kubitem. Zwykłe komputery wykonują obliczenia na seriach bitów – „zer” i „jedynek”. Kwantowe bity, czyli właśnie kubity, mogą przybierać obie te wartości jednocześnie!

Dlatego komputer kwantowy jest o wiele bardziej wydajny niż klasyczny. Weźmy chociażby wspomniane łamanie szyfrów, które matematycznie polega na rozkładzie dużej liczby, czyli klucza szyfrującego, na czynniki pierwsze. Peter Shor, informatyk pracujący w AT&T Bell Laboratories, wymyślił sposób na szybkie wykonanie tego zadania z użyciem maszyny kwantowej w 1994 r. Jednak dopiero siedem lat później udało się sprawdzić jego pomysł w praktyce. Grupa naukowców z IBM i Stanford University zastosowała algorytm Shora na siedmiokubitowym komputerze. Wykonywanie obliczeń wyglądało tak, że fiolkę z płynem bombardowano impulsami elektromagnetycznymi (w ten sposób uczeni manipulowali kubitami i odczytywali wynik). Czy w ten sposób udało się złamać jakiś szyfr? Jeszcze nie – uczeni dokonali jedynie rozkładu liczby 15 na czynniki 5 i 3, a więc czegoś, co potrafi uczeń szkoły podstawowej. Ważne jest jednak, że pierwszy krok został zrobiony.