
W ostatnich latach ta idea przestała być sztuką dla sztuki. W fotonice kwantowej rośnie presja na zwiększanie pojemności i odporności transmisji, na miniaturyzację źródeł i detektorów oraz na metody obrazowania, które potrafią wyciągać szczegóły z bardzo małej liczby fotonów. Narzędzia do rzeźbienia fotonów dojrzały. Pojawiają się układy na chipie, szybkie techniki modulacji w czasie i coraz lepsze metody pomiaru. A to oznacza, że zabawa w dodatkowe wymiary fotonu coraz częściej da się przełożyć na komunikację, czujniki i obrazowanie.
Fotony z dodatkowym alfabetem
W klasycznym myśleniu o komunikacji liczy się, ile sygnałów da się upchnąć w czasie i paśmie. W kwantowej wersji dochodzi inny trik. Zamiast ograniczać się do kubitów, można używać stanów wielowymiarowych, czyli quditów. W praktyce oznacza to, że pojedynczy foton może kodować więcej informacji niż dwa stany, a także daje więcej sposobów na wykrywanie zakłóceń i błędów.
Ten dodatkowy alfabet bierze się z tego, że światło ma więcej stopni swobody niż zwykle wykorzystujemy. Oprócz polaryzacji są jeszcze tryby przestrzenne, czyli wzory rozkładu pola, w tym te związane z orbitalnym momentem pędu. Są też stopnie swobody w czasie i częstotliwości. Jeśli zaczyna się je łączyć, pojawiają się stany wielowymiarowe i wielostopniowe, których nie da się opisać jednym prostym parametrem. Ważne jest to, że więcej wymiarów nie jest tylko pojemnością na dane. To także inna odporność. Jeśli kanał zakłóca jeden wymiar, można projektować kodowanie tak, by część informacji była schowana w innym. Oczywiście nie jest to magia. To raczej rozszerzenie zestawu narzędzi, z którego można wybierać w zależności od tego, jak wygląda realne środowisko transmisji.
Jak rzeźbi się światło kwantowe?
Dawniej największym ograniczeniem było to, że owszem, teoretycznie wszystko brzmiało pięknie, ale praktycznie brakowało stabilnych źródeł, modulatorów i metod pomiaru, które da się zestawić w działający system. Tym razem widać wyraźnie, że nastąpił zwrot. Pojawiły się źródła i układy pomiarowe, które coraz częściej mieszczą się na chipie, a nie na stole optycznym zajmującym pół laboratorium. Na liście kluczowych technik przewijają się zintegrowana fotonika, nieliniowa optyka oraz konwersje między trybami przestrzennymi realizowane przez układy wielopłaszczyznowe. Ten ostatni element jest istotny, ponieważ w strukturze światła najtrudniejsze bywa przełączenie trybu w sposób kontrolowany na inny, bez niszczenia spójności kwantowej.

Do tego dochodzi szybkie modelowanie w czasie. Jeśli światło ma strukturę nie tylko w przestrzeni, ale też w ultrakrótkich skalach czasowych, dostaje się kolejną oś do kodowania i przetwarzania informacji. To jest właśnie ten moment, w którym foton przestaje być pojedynczym impulsem, a zaczyna wyglądać jak obiekt, który ma zaprojektowaną geometrię w kilku niezależnych wymiarach.
Entuzjazm jednak łatwo przerysować. Wiele kanałów transmisyjnych nie lubi stanów przestrzennych. Światłowody, turbulencje atmosferyczne, niedoskonałości optyki, drgania i mikroodkształcenia potrafią mieszać tryby i rozmywać strukturę, która w kontrolowanych warunkach jest idealna. Dlatego zasięg transmisji dla fotonów mocno ustrukturyzowanych przestrzennie potrafi być mniejszy niż w podejściach opartych na bardziej klasycznych własnościach, jak polaryzacja. Nie chodzi o to, że polaryzacja zawsze wygrywa. Jest po prostu łatwiejsza do ochrony w typowej infrastrukturze, a tryby przestrzenne są bardziej wrażliwe na nieidealny tor optyczny.
Ograniczenie jest jednocześnie motorem rozwoju. Skoro przestrzeń bywa trudna, rośnie zainteresowanie bardziej abstrakcyjnymi stopniami swobody, hybrydami przestrzeni z czasem, a także kodowaniem, które z definicji zakłada, że część informacji będzie narażona na zakłócenia i trzeba to wbudować w projekt stanu.
Topologia jako pancerz dla informacji
O co chodzi z topologią? W uproszczeniu chodzi o własności, które nie znikają od drobnych deformacji. Jeśli uda się zaprojektować kwantowy stan światła tak, by miał topologiczną odporność na część zakłóceń, to informacja nie musi rozpadać się przy pierwszym spotkaniu z realnym światem. To podejście nie obiecuje jednak cudów. Topologia nie naprawi wszystkiego, bo nadal istnieją straty, szum i ograniczenia detekcji. Ale może zmienić charakter problemu. Zamiast walczyć o idealną transmisję, próbuje się sprawić, by informacja przetrwała mimo tego, że splątanie i spójność są z natury delikatne.
Co istotne, to łączy się z ideą wielowymiarowości. Jeśli stan ma kilka niezależnych osi, a do tego część jego własności jest zakotwiczona topologicznie, pojawia się przestrzeń na nowe protokoły komunikacji i czujników. Dla praktyki to brzmi jak droga do systemów, które nie wymagają idealnego laboratorium, żeby dało się je uruchomić.
W zastosowaniach komunikacyjnych stawką jest pojemność i bezpieczeństwo. Jeśli pojedynczy foton może przenieść więcej informacji, rośnie gęstość kodowania. A jeśli kodowanie jest wielowymiarowe, łatwiej budować protokoły, które wykrywają manipulacje i błędy. To nie jest automatyczny sejf, ale daje większą swobodę projektowania. W obrazowaniu i metrologii strukturyzowane fotony mogą dawać lepszą rozdzielczość i większą czułość w sytuacjach, gdzie liczba fotonów jest ograniczona. W praktyce liczy się każdy foton, a jeśli da się go wykorzystać bardziej informacyjnie, to zmienia to relację między czasem pomiaru a jakością wyniku.
Największym testem będzie miniaturyzacja i integracja. Jeżeli źródła, modulatory i detektory wysokowymiarowych stanów światła będą dały się upchnąć na chipie i powtarzalnie produkować, cały temat przestanie być domeną wyspecjalizowanych laboratoriów. To będzie moment, w którym dodatkowe wymiary fotonu staną się po prostu kolejną funkcją urządzeń fotonicznych.
Źródło: Science Daily; ICFO