Małe komputery kwantowe pokazują potencjał w uczeniu maszynowym. Ale do przewagi nad klasyką jeszcze daleko

10 godzin temu
Zdjęcie: Quantum Computing, Fujitsu


Fotoniczny komputer kwantowy opracowany przez naukowców z Wiednia i Mediolanu pokazał, iż choćby niewielkie układy mogą przynosić wymierne korzyści w zadaniach związanych z uczeniem maszynowym. Eksperyment przeprowadzony na potrzeby publikacji w Nature Photonics to kolejny krok w kierunku praktycznego zastosowania tzw. quantum machine learning — dyscypliny, która od lat obiecuje przyspieszenie algorytmów AI. Rzeczywistość jest jednak bardziej złożona niż obietnice startupów z Doliny Krzemowej.

Kwantowy eksperyment w wersji light

W centrum badania znalazł się fotoniczny procesor kwantowy, czyli układ wykorzystujący światło (a konkretnie: pojedyncze fotony) do przetwarzania informacji. W przeciwieństwie do głośnych eksperymentów z użyciem kriogenicznych kubitów nadprzewodzących — jak te rozwijane przez IBM czy Google — fotonika ma tę zaletę, iż działa w temperaturze pokojowej i teoretycznie łatwiej ją skalować.

Wiedeńscy naukowcy zaprogramowali układ do wykonania zadania klasyfikacji danych — typowego wyzwania dla systemów AI. Wnioski? Ich algorytm działający na kwantowym układzie popełniał mniej błędów niż klasyczny odpowiednik w konkretnych zadaniach. To może wskazywać, iż tzw. przewaga kwantowa niekoniecznie wymaga budowania maszyn z setkami kubitów.

Quantum machine learning: hype czy przyszłość AI?

Quantum machine learning (QML) to hybrydowa dziedzina badająca, czy algorytmy uczenia maszynowego mogą działać szybciej lub dokładniej na komputerach kwantowych. To atrakcyjna wizja — zwłaszcza w czasach, gdy tradycyjne modele AI wymagają coraz większej mocy obliczeniowej, a centra danych pękają w szwach.

Ale choć QML budzi zainteresowanie badaczy i inwestorów, na razie pozostaje w fazie laboratoryjnej. Obecne komputery kwantowe — tzw. NISQ (Noisy Intermediate-Scale Quantum) — są małe, podatne na błędy i trudne do programowania. Dlatego każde doświadczenie pokazujące realny przyrost wydajności, choćby przy niewielkich układach, jest warte uwagi.

W tym przypadku przewaga nie dotyczyła czasu działania, a dokładności klasyfikacji danych. Fotoniczny procesor wykonał zadanie lepiej — co sugeruje, iż niektóre cechy układów kwantowych, jak nielokalność czy interferencja, mogą wspierać lepsze generalizowanie danych w uczeniu maszynowym. To jednak nie znaczy, iż jesteśmy blisko rewolucji w AI.

Od demonstracji do przemysłu: długa droga

Chociaż eksperyment z Wiednia pokazuje, iż miniaturowe procesory kwantowe mogą być użyteczne, nie oznacza to, iż przemysł AI masowo przerzuci się na fotoniki. Po pierwsze, obecna infrastruktura oparta na GPU (takich jak układy NVIDII H100) jest nieporównywalnie bardziej wydajna w dużych zadaniach produkcyjnych. Po drugie, środowiska programistyczne dla komputerów kwantowych są przez cały czas we wczesnym stadium rozwoju — brakuje stabilnych frameworków, narzędzi testujących i standaryzacji.

Nie oznacza to jednak, iż badania są oderwane od rzeczywistości. Google, IBM, AWS i inne firmy technologiczne aktywnie eksplorują QML. Amazon uruchomił usługę Braket umożliwiającą dostęp do komputerów kwantowych w chmurze, a startupy takie jak Xanadu czy Rigetti rozwijają własne układy kwantowe z myślą o uczeniu maszynowym. Eksperyment wiedeński wpisuje się więc w szerszy trend: testowania, gdzie kwant faktycznie ma sens.

Co dalej? Mała przewaga w niszowych zastosowaniach

Jeśli rozwój QML pójdzie zgodnie z oczekiwaniami, pierwsze realne korzyści mogą pojawić się w bardzo konkretnych przypadkach — np. w analizie danych o małej liczbie wymiarów, gdzie klasyczne algorytmy łatwo się „przeuczają”. Alternatywnie, komputery kwantowe mogą znaleźć niszowe zastosowania w obszarach takich jak wykrywanie anomalii, optymalizacja portfela inwestycyjnego czy projektowanie molekuł.

Ale zanim tak się stanie, przed nami jeszcze dekada pracy. Obecne układy kwantowe to raczej laboratoria demonstracyjne niż maszyny gotowe do komercjalizacji. Wyzwaniem pozostają nie tylko błędy i dekoherencja, ale też brak standardów sprzętowych i trudności ze skalowaniem.

Dla branży AI to jednak dobra wiadomość. choćby jeżeli kwant nie zastąpi GPU, może stanowić uzupełnienie — zwłaszcza w zadaniach, w których tradycyjne modele dochodzą do ściany. Eksperyment z Wiednia pokazuje, iż nie trzeba czekać na „duży przełom”, by wyciągać praktyczne wnioski. Czasem wystarczy dobrze dostrojony, mały układ i inteligentny algorytm.

Idź do oryginalnego materiału