Niedawno listę najszybszych komputerów świata otwierał składający się z 37 tys. procesorów komputer Cray XT5-HE Jaguar z wynikiem 1,7 petaflopa, czyli wykonujący 1,7 biliarda operacji w ciągu sekundy. Oznacza to, że maszyna jest w stanie obliczyć w ciągu kilkunastu minut tygodniową prognozę pogody dla całego świata, sprawdzić nanosekunda po nanosekundzie, co dzieje się we wnętrzu bomby atmowej albo w sześć minut obliczyć wszystkie klatki animacji składające się na film „Shrek 3”. Ale gdyby miał znaleźć najkrótszą drogę łączącą 25 miast – czyli wykonać zadanie, z którym musi się zmagać szef każdej dużej firmy kurierskiej, zwane w matematyce problemem komiwojażera – zajęłoby mu to jakieś 30 lat. Jaguar nie potrafiłby też złamać 128-bitowego szyfru, stosowanego do zabezpieczenia transakcji internetowych metodą „siłową” (przez sprawdzenie wszystkich kombinacji) – a właściwie dałby radę, tyle że za jakieś sześć biliardów lat.

Jak widać ludzkość zawsze znajdzie zastosowanie dla jeszcze szybszej maszyny liczącej. Amerykanie daliby wiele za komputer zdolny do łamania współczesnych szyfrów. Uczeni też mają wielki apetyt na moc obliczeniową – na przeliczenie czekają góry danych produkowanych w CERN czy podczas symulowania działania mózgu w komputerze. Jednak dotychczasowa technologia krzemowa przestaje się sprawdzać. Przyszłość należy do maszyn zupełnie nowej generacji, które już powstają – choć na razie głównie w laboratoriach naukowców.

KONIEC EPOKI KRZEMU


Od 1965 r. do dziś sprawdzała się reguła sformułowana przez Gordona Moore’a, założyciela firmy Intel. Każdy układ elektroniczny składa się z tranzystorów. Ich liczba w mikroprocesorach (a więc moc obliczeniowa komputerów) podwaja się co 24 miesiące. Teoretycznie nie jest więc źle – za nieco ponad sto lat superkomputery łamać będą szyfry 128- -bitowe w ciągu roku. Ale taka ścieżka prowadzi donikąd, ponieważ o wiele wcześniej okazałoby się, że jeden procesor musiałby być większy od całej Ziemi!

Zresztą reguła Moore’a trafi w ślepą uliczkę znacznie wcześniej. Upychanie więcej tranzystorów w mikroprocesorze staje się coraz trudniejsze, bo miniaturyzacja elektroniki sięga barier stawianych przez fizykę.

Potrafimy dziś budować układy z tranzystorów o powierzchni 32x32 nanometry (mieści się na niej około 80 tys. atomów krzemu). Intel – największy gracz na tym rynku – zapowiada, że wkrótce zmieści tranzystor w kwadracie o boku siedmiu nanometrów. Ale może mieć z tym poważne kłopoty. Do produkcji procesorów używane są wiązki skoncentrowanego światła – im mniejsze struktury chcemy uzyskać, tym krótszą falę musi mieć owo światło. Intel już teraz stosuje głęboki ultrafiolet, a jeśli zechce przesunąć granicę miniaturyzacji dalej, będzie musiał zastosować promieniowanie rentgenowskie – bardzo trudne do ujarzmienia w tak małej skali.

Na dodatek granica siedmiu nanometrów oznacza, że jeden tranzystor będzie zbudowany z zaledwie kilkudziesięciu atomów. A wówczas do głosu dojdą tajemnicze zjawiska kwantowe, które mogą nawet uniemożliwić działanie mikroprocesora w wyniku zakłóceń. Na szczęście można tego uniknąć. Wystarczy tylko zaprząc te „zakłócenia” do pracy.

PROGRAM NA NIEISTNIEJĄCY KOMPUTER


W 1985 r. prof. David Deutsch z University of Oxford zaproponował teoretyczny model komputera kwantowego. Od tego czasu matematycy zajmowali się pisaniem programów na komputery kwantowe, nie przejmując się zbytnio tym, że takowe nie istniały. Wystarczyło znać założenia, a te były bardzo interesujące.

Komputery kwantowe mogą bowiem wykorzystywać zjawisko splątania. Polega ono na tym, że w świecie fizyki kwantowej następuje przedziwna i nie do końca zrozumiała relacja między cząstkami elementarnymi, takimi jak elektrony. Gdy uda nam się je do siebie „upodobnić” (np. zbliżając je do siebie), ich losy zostają ze sobą ściśle powiązane. Gdy potem zmienimy właściwości jednej cząstki, druga zareaguje taką samą zmianą – nawet jeśli będzie daleko. W przypadku komputerów oznacza to, że możemy przeprowadzać obliczenia równolegle na wielu różnych „frontach” – a to bardzo przyśpiesza wykonywanie zadania. Do tego dochodzi jeszcze wynalazek zwany kubitem. Zwykłe komputery wykonują obliczenia na seriach bitów – „zer” i „jedynek”. Kwantowe bity, czyli właśnie kubity, mogą przybierać obie te wartości jednocześnie!

Dlatego komputer kwantowy jest o wiele bardziej wydajny niż klasyczny. Weźmy chociażby wspomniane łamanie szyfrów, które matematycznie polega na rozkładzie dużej liczby, czyli klucza szyfrującego, na czynniki pierwsze. Peter Shor, informatyk pracujący w AT&T Bell Laboratories, wymyślił sposób na szybkie wykonanie tego zadania z użyciem maszyny kwantowej w 1994 r. Jednak dopiero siedem lat później udało się sprawdzić jego pomysł w praktyce. Grupa naukowców z IBM i Stanford University zastosowała algorytm Shora na siedmiokubitowym komputerze. Wykonywanie obliczeń wyglądało tak, że fiolkę z płynem bombardowano impulsami elektromagnetycznymi (w ten sposób uczeni manipulowali kubitami i odczytywali wynik). Czy w ten sposób udało się złamać jakiś szyfr? Jeszcze nie – uczeni dokonali jedynie rozkładu liczby 15 na czynniki 5 i 3, a więc czegoś, co potrafi uczeń szkoły podstawowej. Ważne jest jednak, że pierwszy krok został zrobiony.

 

Wszechświat to za mało

„Obliczenia kwantowe zrewolucjonizują technikę obliczeniową w takim stopniu, jak wyzwolenie energii jądrowej odmieniło oblicze energetyki i zbrojeń” – pisze George Johnson w książce „Na skróty przez czas”. Z rozważań fizyków wynikają wizje zapierające dech w piersiach. Komputer kwantowy mający do dyspozycji 500 kubitów miałby moc obliczeniową większą niż superkomputer zawierający tyle procesorów, ile jest cząstek elementarnych w całym wszechświecie! Jak to możliwe? Zdaniem części uczonych – w tym prof. Davida Deutscha – dzieje się tak, ponieważ w rzeczywistości istnieje bardzo wiele bliźniaczych wszechświatów (tworzących wspólnie tzw. multiwersum), które przenikają się na poziomie subatomowym. A komputery kwantowe po prostu działają w wielu takich światach równocześnie.



SAMOBÓJSTWO DANYCH


Od w pełni funkcjonalnej maszyny kwantowej dzieli nas jeszcze sporo takich kroków. Nie wystarczy tylko zmusić atomy do wykonywania obliczeń – trzeba jeszcze umieć odczytać wyniki. A z tym jest problem, ponieważ w świecie kwantowym tak już jest, że każda obserwacja zmienia stan obserwowanej materii. Innymi słowy, odczytując wyniki obliczeń – zarazem je kasujemy. To trochę tak, jakby nasz pecet uruchamiał się ponownie za każdym razem, gdy rzucimy okiem na ekran. Na razie naukowcom specjalnie to nie przeszkadza, bo nie budują jeszcze zbyt skomplikowanych maszyn. W przyszłości zamierzają przenosić wyniki obliczeń do kwantowej pamięci. Ją też będzie można odczytać tylko raz, ale przynajmniej nie zresetujemy wówczas całego komputera.

Mimo tych trudności pierwsze procesory kwantowe już powstają. Niedawno zespół z amerykańskiego National Institute of Standards and Technology (NIST) zaprezentował urządzenie trzymające w magnetycznej pułapce dwa jony berylu, sterowane impulsami lasera. Jest ono w stanie przeprowadzać operacje kwantowe na dwóch kubitach. Wydaje się to mało imponujące, skoro wcześniej powstawały maszyny siedmiokubitowe, ale chodzi tu o uniwersalność. Komputer kwantowy, który potrafi podzielić 15 na 5 i 3, jest mniej więcej tak przydatny jak edytor tekstu, który pozwala na używanie tylko litery A. Tymczasem maszyna NIST może zrealizować dowolny program. Naukowcy ułożyli ich 160 i każdy z nich wykonali 900 razy.

I byłoby pięknie, gdyby nie kolejny problem z kwantowymi obliczeniami. Otóż ich dokładność wyniosła zaledwie 79 proc. Uczeni twierdzą, że to wina mało precyzyjnych laserów służących do programowania maszyny, a następnie odczytywania danych.

W świecie fizyki kwantowej tak już właśnie jest – nie mamy do czynienia z „twardymi” liczbami, jedynie z prawdopodobieństwami. Nawet przy działaniu tak prostym jak 15=3x5 część odpowiedzi może być błędnych. Co z tym zrobić? Można zarządzić „głosowanie” – wykonać obliczenia wiele razy i wybrać ten wynik, który pojawia się najczęściej. Wydaje się to dziwaczne, ale nie zapominajmy, że tak właśnie działa otaczająca nas rzeczywistość. Gdy wlewamy wodę do szklanki, to – zgodnie z prawami fizyki kwantowej – może się ona znaleźć zarówno w naczyniu, jak i poza nim. To, że w miażdżącej większości przypadków pozostaje w środku, to wynik „głosowania” wszystkich cząstek elementarnych tworzących wodę, które wspólnie dochodzą do wniosku, że są we właściwym miejscu.

Mocy nigdy za wiele

Superkomputery, takie jak widoczny na zdjęciu powyżej Cray XT5 Kraken działający w University of Tennessee (trzecie miejsce w światowym rankingu najszybszych maszyn), są wykorzystywane do najbardziej skomplikowanych obliczeń we współczesnej nauce. Modelują zjawiska klimatyczne i tworzą szczegółowe prognozy pogody, analizują trójwymiarową strukturę ważnych dla człowieka białek, pomagają w badaniach nad nowymi typami materiałów i efektywniejszymi sposobami spalania benzyny w silnikach samochodowych. „Kiedy zaczynaliśmy ten projekt, mówiłem, że Kraken – trochę jak mityczny morski potwór, który zainspirował nas do nadania tej nazwy maszynie – da nam gigantyczne możliwości, ograniczone tylko siłą ludzkiej wyobraźni. Ta wizja zaczyna się realizować na naszych oczach” – mówi Arden Bement, dyrektor amerykańskiej National Science Foundation, która sfinansowała budowę superkomputera. A koszt był niemały – 65 mln dolarów plus następne 10 mln, za które zostanie wyprodukowana kolejna potężna maszyna zwana Nautilius – „pomocnik”



MASZYNA JAK ŻYWA

 


Przy skomplikowanej fizyce i technologiach stosowanych do budowy komputerów kwantowych konkurencyjny pomysł wydaje się wręcz zbyt prosty. A jest niemal równie „stary”. W owym 1994 r., gdy Peter Shor opublikował swój kwantowy algorytm do łamania szyfrów, inny uczony – prof. Leonard Adleman z University of Southern California – zaproponował, by obliczenia wykonywać z użyciem DNA. Na ów pomysł wpadł po przeczytaniu książki „Biologia molekularna genu” autorstwa Jamesa Watsona, odkrywcy struktury tego związku chemicznego.

Prof. Adleman znalazł nawet zastosowanie dla takiej metody – rozwiązanie wspomnianego wcześniej problemu komiwojażera. Wystarczy stworzyć krótkie pojedyncze nici DNA, kodując w nich informację o miastach oraz drogach między nimi. Wlewamy to wszystko do probówki i mieszamy. Ponieważ nici DNA same „dobierają się w pary”, musimy tylko odrzucić nieprawidłowe rozwiązania (takie, które nie łączą wszystkich miast), a z prawidłowych wybieramy wariant najbardziej optymalny (najkrótszą drogę). Oczywiście takie zadanie można rozwiązać znacznie szybciej za pomocą kartki papieru i długopisu, bo zabawa z kodem genetycznym zajęła uczonemu kilka dni, ale to wystarczyło, by inni badacze ruszyli tym tropem. Do bardziej spektakularnych osiągnięć w tej dziedzinie należy praca zespołu kierowanego przez prof. Ehuda Shapiro z izraelskiego Instytutu Nauk im. Weizmanna. Naukowcy zbudowali z enzymów i DNA komputer, który można zaprogramować. Zadanie, które wykonywał, było proste i zarazem bardzo ważne – sprawdzał, czy ma do czynienia z komórką rakową i jeśli tak było, uwalniał lek przeciwnowotworowy. Nietrudno wyobrazić sobie takie mikroskopijne maszyny, krążące po naszych organizmach i zwalczające różne choroby w zarodku.

Komputer z DNA ma wiele zalet. Programuje się go tak samo jak zwykłe maszyny obliczeniowe – nie ma tu żadnego splątania ani innych dziwnych kwantowych zjawisk. Jego biopamięć może przechowywać ogromne ilości danych. Kilogram DNA zawiera więcej informacji, niż są w stanie pomieścić wszystkie komputery świata, a całą zawartość internetu można by spokojnie zmieścić w szklance. Na dodatek jest przy tym niesamowicie energooszczędny. Superkomputer taki jak Cray Jaguar potrzebuje do działania kilku megawatów elektryczności – tyle, ile produkuje niewielka elektrownia. Nici DNA zużywają bardzo mało energii chemicznej, którą czerpią bezpośrednio z otoczenia. Mamy więc komputer bez jakichkolwiek elementów elektronicznych!

TECHNOLOGIA ZA PROGIEM


Ta ostatnia zaleta może wkrótce okazać się nieoceniona. Na całym świecie wyczerpują się złoża rzadkich metali, niezbędnych we współczesnej elektronice. Organiczne komputery będą łatwiejsze do wyprodukowania i bardziej przyjazne środowisku – po zużyciu po prostu się rozłożą, nie zatruwając gleby ani wody.

Takie maszyny to nadal pieśń przyszłości. Mogą się tam jednak pojawić szybciej, niż sądzimy – choćby w formie przystawek czy dodatkowych elementów zwykłych komputerów. Kwantowy układ szyfrujący czy twardy dysk z DNA brzmią dziś dziwacznie, ale pamiętajmy, że w 1943 r. Thomas Watson, ówczesny szef IBM, twierdził, iż na całym świecie będzie zapotrzebowanie na zaledwie kilka komputerów. Gdyby miał rację, nie mielibyśmy dziś nawet telefonów komórkowych, bez których wielu z nas nie wyobraża już sobie życia.