Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



29.10.2021

Veritas po raz 16. liderem...

Firma Veritas Technologies, producent uznanych rozwiązań backup klasy enterprise,...
21.10.2021

Zarządzanie IT

We wrześniu BTC Sp. z o.o. zaprezentowała premierową wersję systemu eAuditor V8 AI.
21.10.2021

Konferencja VMworld

Imagine That. Pod takim hasłem w dniach 5–7 października 2021 r. odbyła się jedna z...
21.10.2021

Darmowy deszyfrator

Bitdefender wspólnie z organami ścigania opracował i wydał narzędzie, które pozwala...
21.10.2021

Dell C1422H

Dell Technologies wprowadza do oferty przenośny monitor do zwiększenia wydajności pracy w...
21.10.2021

Dysk dla cyfrowych twórców

Western Digital zaprezentowało nowy dysk – WD Blue SN750 NVMe SSD.
21.10.2021

Projektory laserowe

Optoma wprowadza serię projektorów laserowych Ultra Bright ZU1700, ZU1900, ZU2200 z...
21.10.2021

Orzeł wśród routerów

D-Link wprowadza na rynek smart router EAGLE PRO AI AX1500 R15.
21.10.2021

Nowe generacje Ryzen i Epyc

AMD 3D V-Cache. AMD zapowiada procesory Ryzen i Epyc z nowym rozwiązaniem.

Komputery kwantowe – realizacje idei

Data publikacji: 23-09-2021 Autor: Adam Kamiński

W wielu produktach, projektach, przedsięwzięciach określenie „quantum” lub „kwantowe” dorzucane jest bezpodstawnie i traktowane jak chwytliwe hasło mające przyciągnąć uwagę sponsorów. Jest to zjawisko dość niebezpieczne, gdyż wiele osób zaczyna się zastanawiać, czy komputery kwantowe nie są jedynie kolejną modną wydmuszką, na które niepotrzebnie przeznacza się ogromne sumy.

 

W tej części cyklu przedstawimy kilka prawdziwie kwantowych projektów dobranych ze względu na różnorodność podejść do realizacji zagadnień inżynierii kwantowej.

Na początku lat 80. Paul Benioff z Argonne National Laboratory w Stanach Zjednoczonych zwrócił uwagę na możliwość budowy komputerów wykorzystujących prawa fizyki kwantowej. Kompletną teorię działania komputera kwantowego w połowie tamtej dekady stworzył David Deutsch z brytyjskiego Uniwersytetu Oksfordzkiego. Następnie dołączył do niego polski informatyk i fizyk Artur Ekert, też związany na stałe z Oksfordem. Pomysł wzbudził szersze zainteresowanie w 1994 r., gdy Peter Shor z AT&T Bell Labs w Murray Hill wymyślił algorytm, który przy użyciu komputera kwantowego mógłby szybko dokonywać faktoryzacji dużych liczb całkowitych na iloczyny liczb pierwszych. Jednak za twórcę idei komputera kwantowego uważa się laureata nagrody Nobla – Richarda Feynmana – który podczas jednego z wykładów prowadzonych w Massachusetts Institute of Technology w 1981 r. zaprezentował teoretyczny model przekształcenia systemu kwantowego w klasyczny model komputerowy. Do budowy komputera kwantowego, zgodnie z modelem przedstawionym przez Feynmana, wykorzystać można wiele zjawisk fizycznych wykazujących właściwości kwantowe, m.in.: zjawisko magnetycznego rezonansu jądrowego NMR (ang. Nuclear Magnetic Resonance), polaryzację światła, pułapki jonowe, nadprzewodzące złącza Josephsona, nadprzewodniki, kropki kwantowe, kondensat Bosego–Einsteina czy stany energetyczne elektronów na powłokach walencyjnych.

Pierwszym zbudowanym w 1996 r. komputerem kwantowym była dwukubitowa maszyna wykorzystująca zjawisko magnetycznego rezonansu jądrowego NMR. Komputer ten opracowany został przez Neila Gershenfelda, Isaaca L. Chuanga oraz Marka Kubineca i przeprowadzał obliczenia, jako „procesor” wykorzystując probówkę zawierającą 1020 cząsteczek chloroformu (CHCl3) umieszczoną w polu magnetycznym. Maszynę programowano za pomocą impulsów radiowych, a do obliczeń wykorzystano spiny cząsteczek, które były odpowiednio ustawiane poprzez zmiany pola magnetycznego.

W 2009 r. powstał pierwszy optyczny komputer kwantowy korzystający z czterech kubitów. Dwaj doktoranci z Centrum Fotoniki Kwantowej na Uniwersytecie Bristolskim – Alberto Politi i Jonathan Matthews – przeprowadzili eksperyment, podczas którego dokonali pierwszych w historii obliczeń z użyciem kwantowego komputera optycznego. Podczas obliczeń wykorzystano algorytm Shora i rozłożono liczbę 15 na czynniki pierwsze. W tym samym roku skonstruowano też pierwszy elektroniczny procesor kwantowy. Zespół naukowców pod kierownictwem Stevena Girvina z Uniwersytetu Yale opracował nadprzewodzący układ scalony pracujący z dwoma kubitami. Każdy z kubitów w układzie składał się z ok. 1 miliarda atomów aluminium, które dzięki splątaniu zachowywały się jak pojedynczy atom i mogły przybierać dwa różne stany energetyczne.

 

> OBJĘTOŚĆ KWANTOWA

Żeby wyniki osiągnięć w obliczeniach kwantowych mogły być porównywane, wydajność urządzeń musi być zestawiana w tej samej skali. Chociaż liczba kubitów jest istotna, do niedawna przy ocenie komputerów kwantowych głównie ją brano pod uwagę, ignorując wiele innych ważnych czynników wpływających na ich zdolności obliczeniowe. Koncepcja objętości kwantowej pojawiła się kilka lat temu, gdy programiści i użytkownicy zmagali się z oceną wydajności licznych technologii kwantowych i ich różnych poziomów wierności operacyjnej. Okazało się, że pomocne byłoby, gdyby badacze kwantowi dysponowali narzędziem umożliwiającym systematyczne mierzenie i zrozumienie, w jaki sposób przyrostowa technologia, konfiguracja i zmiany projektowe wpływają na ogólną moc i wydajność komputera kwantowego. W 2017 r. naukowcy z IBM-u opracowali i przedstawili pomiar wydajności całego kwantowego układu o nazwie Quantum Volume.

Objętość kwantowa (ang. quantum volume) to pełnosystemowy, bezwymiarowy (niemający żadnej jednostki miary) współczynnik możliwości i błędów komputera kwantowego wskazujący na jego wydajność, obliczany w sposób mający obiektywnie wykazać przewagę obliczeniową jednego komputera kwantowego nad drugim. Wartość liczbowa objętości kwantowej wyraża względną złożoność problemu, który może rozwiązać komputer kwantowy, i maksymalny rozmiar obwodów kwantowych, które mogą być z powodzeniem na nim zaimplementowane. Liczba kubitów i operacji, które można wykonać, nazywa się szerokością i głębokością obwodu kwantowego. Im głębszy obwód, tym bardziej złożony algorytm może uruchomić komputer. Na głębokość obwodu mają wpływ takie elementy jak liczba kubitów, sposób łączenia kubitów, błędy bramkowania i pomiaru, przesłuchy między urządzeniami, wydajność kompilatora oprogramowania obwodów. Wszystkie te aspekty uwzględnia wynik pomiaru objętości kwantowej.

Forma obwodów jest niezależna od architektury komputera kwantowego, ale kompilator może ją przekształcić i zoptymalizować, aby wykorzystać możliwości komputera. W ten sposób można porównywać objętość kwantową różnych architektur, co oznacza, że może z niego korzystać każdy komputer oparty na obwodach kwantowych (zatem wydajności urządzenia D-Wave opartego na wyżarzaczach nie wyrazi się w QV). Interpretacja objętości kwantowej jest prosta – im większa liczba, tym mocniejszy komputer.

 

> BIG QUANTUM BLUE

IBM można uznać za pioniera w dziedzinie obliczeń kwantowych na skalę przemysłową. Prace badawczo-rozwojowe w tej materii IBM rozpoczął już w 1996 r., od połowy 2000 r. bada kubity nadprzewodnikowe, zwiększając czasy koherencji i zmniejszając błędy, aby umożliwić korzystanie z urządzeń wielokubitowych.

Ciągłe udoskonalenia i postępy na każdym poziomie systemu od kubitów po kompilator pozwoliły w 2016 r. umieścić pierwszy komputer kwantowy w chmurze.

Jak dotąd od 2017 r. – kiedy po raz pierwszy zademonstrował objętość kwantową 4 z pięciokubitowym komputerem o nazwie Teneryfa – IBM co roku podwaja objętość kwantową swoich systemów. W 2018 r. 20-kubitowy Tokio uzyskał 8 objętości kwantowej, a w 2019 r. 20-kubitowy IBM Q System One, zwany Johannesburgiem, osiągnął objętość kwantową 16. Na targach CES 2020 firma ogłosiła, że jej 28-kubitowy Raleigh wykręcił 32 QV w porównaniu z 16 z roku poprzedniego. Raleigh opiera się na ulepszonej heksagonalnej strukturze łączności sieciowej opracowanej w ich 53-kubitowym komputerze i oferuje ulepszone aspekty koherencji. Według IBM-u łączność sieciowa miała wpływ na zmniejszenie liczby błędów bramek i narażenie na przesłuchy.

Jak Big Blue zdołało podwoić objętość kwantową? Jay Gambetta i Jerry Chow, badacze IBM Q, powodów sukcesu upatrują w zastosowaniu rzadkiego rozmieszczenia sieci, aby zmniejszyć kolizje częstotliwości kubitów i błędy obserwatorów. W zeszłym roku poczynili postępy w zakresie spójności pojedynczego kubitu, zwiększając o ponad 10 milionów dobroć (ang. Quality Factor) na izolowanych urządzeniach.

Plan rozwoju

Zgodnie z założeniami zaprezentowanymi w styczniu 2020 r. na mapie rozwoju obliczeń kwantowych w tym roku zadebiutować ma 127-kubitowy układ IBM Quantum Eagle. Ma on oferować kilka ulepszeń, w tym przelotki krzemowe (ang. through-silicon via – TSV) i wielopoziomowe okablowanie zapewniające możliwość skutecznego rozproszenia dużej gęstości klasycznych sygnałów sterujących przy jednoczesnej ochronie kubitów w oddzielnej warstwie w celu utrzymania wysokich czasów koherencji. Uzyskano też równowagę w łączności i redukcji błędów przesłuchów dzięki podejściu do bramek dwukubitowych o stałej częstotliwości i heksagonalnej strukturze kubitów wprowadzonej w 27-kubitowym Falconie. Ten układ kubitów ma umożliwić zaimplementowanie heksagonalnego kodu korekcji błędów, który pozwoli zbadać, jak w miarę zwiększania liczby fizycznych kubitów będą one ze sobą współpracować jako kubity logiczne z korekcją błędów. W 2022 r. IBM planuje wypuścić 433-kubitowy system IBM Quantum Osprey, który będzie bardziej wydajny i skalowany dzięki lepszej infrastrukturze kriogenicznej i kontroli, natomiast na 2023 r. szykowana jest premiera 1121-kubitowego procesora IBM Quantum Condor.

Dzisiejsze kriostaty rozcieńczające nie będą już w stanie skutecznie chłodzić i izolować tak potencjalnie dużych, złożonych urządzeń, dlatego IBM pracuje nad „superlodówką” o szerokości 6 i wysokości 12 stóp o nazwie kodowej „Goldeneye”. Projekt ten powstał z myślą o systemie opartym na milionach kubitów i rozpoczęto już fundamentalne testy wykonalności. Docelowo interkonekty kwantowe będą miały łączyć kriostaty, z których każdy zawierać będzie milion kubitów, podobnie jak intranet łączy procesory superkomputerowe, tworząc masowo równoległy komputer kwantowy. Największym wyzwaniem stojącym przed zespołami badaczy jest wymyślenie, jak kontrolować duże układy kubitów wystarczająco długo i z niewielką liczbą błędów, aby uruchomić złożone obwody kwantowe wymagane przez przyszłe aplikacje kwantowe.

Kwantowa chmura

W styczniu 2019 r. IBM wprowadził do oferty sprzętowej pierwszy komercyjny komputer kwantowy. IBM Q System One dysponował 20-kubitowym chipem kwantowym umieszczonym w obudowie wykonanej z laminowanego szkła boro-krzemianowego. Wybór materiału podyktowany został jego doskonałymi właściwościami izolacyjnymi przed promieniowaniem radiowym i wahaniami temperatur. Platforma obliczeniowa jako zintegrowany i samodzielny komponent pozwalała na połączenie z istniejącym już lokalnie środowiskiem obliczeniowym, a system mógł być umieszczony w praktycznie dowolnej serwerowni. W hermetycznej obudowie zastosowano system „rototranslacji” pozwalający na dostęp do urządzenia w razie konieczności konserwacji lub modernizacji, minimalizując jednocześ­nie przestoje w pracy.

W ramach IBM Q System One dostępny jest pakiet oprogramowania wykorzystywany już wcześniej, np. w IBM Q 20 Tokyo, dostępny publicznie w ramach IBM Cloud. Dodatkowo opracowano specjalne oprogramowanie, które w sposób automatyczny pozwala na samokalibrację systemu oraz sterowanie bramkami kwantowymi. Kalibracja jest jednym z najważniejszych elementów tego rozwiązania, gdyż pozwala optymalnie wykorzystać możliwości systemu i w jak największym stopniu kontrolować parametry dekoherencji układu.

IBM w swoich urządzeniach kwantowych wykorzystuje nadprzewodnikowe złącza Josephsona (typu Al/AlOx/Al) umożliwiające zmianę typowego mostka RLC w oscylator aharmoniczny i wyraźne rozdzielenie stanów kwantowych. Superpozycja stanów, jak i splątanie kwantowe wykonywane są za pomocą generatorów mikrofalowych pracujących impulsowo 10–100 ns z częstotliwością około 5 GHz, a cały układ utrzymywany jest w temperaturze 20 mK (-273,13o C). Tylko tak niska temperatura zapewnia środowisko do pracy całego urządzenia, pozwalając na stabilną pracę przez ok. 100 mikrosekund. Cały system został zmontowany do testów mechanicznych w centrali Goppiona w Mediolanie i tam przeszedł dwutygodniowe testy pod względem bezpieczeństwa, konserwacji, niezawodności i wydajności.

Pierwsze urządzenie klasy IBM Q System One zostało w 2019 roku zainstalowane w głównej siedzibie działu IBM Research – Centrum Badawczym Thomas J. Watson. Dostęp do systemu zapewnia platforma opracowana na wzór IBM Q Experience.

Stworzona platforma obliczeniowa oprócz urządzenia kwantowego składa się także z systemów symulacyjnych, które w znacznym stopniu ułatwiają debugowanie kodu kwantowego. Debugowanie jest dużym wyzwaniem w takim środowisku, ponieważ pomiar układu kwantowego bezpowrotnie zmienia jego stan końcowy w sposób nieodwracalny. Dlatego też wymagana jest możliwość wcześniejszej symulacji kodu kwantowego uruchamianego na tradycyjnych maszynach, co może wymagać specjalistycznych zasobów obliczeniowych. Jednakże wykorzystując otwarty framework Qiskit, można realizować zadania nawet na lokalnych serwerach klienta.

Akcelerator postępu

Jednym z ważnych elementów, które w znacznej mierze przyczyniły się do pokonania kolejnych ograniczeń w obliczeniach kwantowych i rozwoju IBM-u, było wdrożenie Qiskit Runtime – środowiska wykonawczego, które zwiększa możliwości uruchamiania większej liczby obwodów w znacznie szybszym tempie niż kiedykolwiek wcześniej, a także z możliwością przechowywania programów kwantowych, aby inni użytkownicy mogli je uruchamiać jako usługę i dodawać je do środowiska roboczego. Wykorzystywany jest przy tym język programowania OpenQASM3, stworzony przez IBM. Qiskit tworzy kontenerowe środowisko wykonawcze znajdujące się obok sprzętu kwantowego. Zamiast wysyłać wiele zapytań ze swojego urządzenia do opartego na chmurze komputera kwantowego, programiści mogą wysyłać całe programy do środowiska Runtime, gdzie chmura hybrydowa IBM-u przesyła i wykonuje dla nich pracę, zmniejszając opóźnienia wynikające z komunikacji między komputerem użytkownika a procesorem kwantowym. Innymi słowy, pętle zachodzące między środowiskiem klasycznym a kwantowym są zawarte w Runtime, który sam znajduje się blisko procesora kwantowego. To skutecznie zmniejsza opóźnienia wynikające z komunikacji między użytkownikiem a procesorem kwantowym.

Te ulepszenia doprowadziły do przyspieszenia obciążeń wykorzystujących iteracyjne wykonywanie obwodów, co pozwoli systemom kwantowym na wykonywanie obliczeń – normalnie zajmujących miesiące – w ciągu zaledwie kilku godzin. Jednym z podstawowych zastosowań komputerów kwantowych jest symulowanie systemów kwantowych, które przejmują żmudne zadania wykonywane przez zwykłe komputery. To właśnie usługa Qiskit Runtime była kluczem do zmniejszenia opóźnień związanych z obliczeniami kwantowymi, o czym można było przeczytać w maju tego roku. Dzięki wykorzystaniu kombinacji ulepszonych algorytmów, ulepszonych systemów sterowania i usługi Qiskit, badaczom IBM udało się rozwiązać problem kwantowy 120 razy szybciej niż poprzednio. W 2017 r. naukowcy Big Blue wyposażeni w siedmiokubitowy procesor kwantowy z powodzeniem symulowali zachowanie cząsteczki wodorku litu (LiH). Wtedy operacja trwała 45 dni. Teraz, cztery lata później, ten sam problem został rozwiązany w dziewięć godzin. Symulacja została przeprowadzona w całości w chmurze, za pośrednictwem platformy Qiskit Runtime.

 

[...]

 

Autor jest testerem oprogramowania i entuzjastą technologii rozproszonych rejestrów. Redaktor „IT Professional”.

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

prenumerata Numer niedostępny Spis treści

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"