作者|周雅
提到量子計算,美國理論物理學家理查德·費曼曾說過一句令人難忘的話:“大自然不是經典的,如果你想模擬大自然,你最好把它變成量子力學。”
在過去30年里,量子計算存在一個根本性的挑戰:隨著量子比特數量的增加,錯誤率會急劇上升。然而,這個看似不可逾越的鴻溝,現在終于出現了突破性曙光。
2019年11月23日,谷歌曾在《自然》雜志期刊中發表了一項量子計算突破,谷歌的超導量子芯片Sycamore僅用200秒就完成了一項計算,而世界最快的超級計算機需要 1萬年。當時谷歌CEO桑達爾·皮查伊(Sundar Pichai)將其比作“萊特兄弟 12 秒的首飛”。
2024年12月10日,谷歌在《自然》發表了最新量子芯片Willow的研究成果,再次取得了里程碑式的突破,主要體現在兩個方面:
· 首先,Willow實現了隨著量子比特數量增加、而指數級降低錯誤率的目標,通過逐步擴大量子比特陣列規模,從3x3到5x5再到7x7,每次都能將錯誤率降低一半。這是自1995 年 Peter Shor 引入量子糾錯以來,一直是該領域面臨的艱巨挑戰。
· 其次,更受關注的是其計算能力的突破。在隨機電路采樣(RCS)基準測試中,Willow用不到5分鐘就完成了一項計算,而當今最快超級計算機Frontier則需要10^25年才能完成,也就是10,000,000,000,000,000,000,000,000年。為了讓大家直觀理解這個數字的概念,谷歌說“這個時間比宇宙的年齡還要大”。
科技行者Techwalker參與了此次的谷歌視頻簡報會,谷歌量子AI創始人兼負責人Hartmut Neven(哈特穆特·奈文)在會上表示:“當我們于2012年創立谷歌量子AI團隊時,愿景是構建一個有用的大規模量子計算機,利用我們今天所知的量子力學(自然界的‘操作系統’)來推動科學發現、開發有益的應用、并解決一些社會的關鍵挑戰。”
谷歌的量子AI團隊由哈特穆特·奈文領導,谷歌在圣巴巴拉建立了專門的量子芯片制造工廠,在該領域進行深度投入。
有意思的是,谷歌量子硬件總監Julian Kelly(朱利安·凱利)在簡報會上介紹說,此前谷歌量子芯片Sycamore是在加州大學圣巴巴拉分校的一個共享潔凈室中建造的——該實驗室于2013年宣布成立,為谷歌研究人員提供了更多工具和更強大的功能。而此次,Willow是在谷歌自己的專用超導芯片制造設施生產,可以更好地控制制造工藝參數,良品率和一致性得到提高。
“你可以認為 Willow 基本上繼承了 Sycamore 的所有優點,但實現了更大的里程碑式的突破。”朱利安·凱利說。
指數級量子誤差校正:低于閾值
量子比特(qubit),是量子計算機的運算單位,但它們非常“不穩定”,往往會因周圍環境而丟失信息,通常情況下,使用的量子比特越多,錯誤就會越多——所以,“錯誤”是量子計算面臨的最大挑戰之一。
但谷歌這次做到了相反的效果:當谷歌量子芯片Willow 中使用的量子比特越多,錯誤反而大幅減少了,谷歌測試了越來越大的物理量子比特陣列,從 3x3 編碼量子比特網格,擴展到 5x5 網格,再到 7x7 網格——每次擴大時,錯誤率都能減少一半。換句話說,谷歌實現了錯誤率的指數級降低。
這里稍作解釋。在量子糾錯中,涉及將許多物理量子比特放在一起并讓它們協同工作,也就是通過創建一個“邏輯量子比特”(logical qubit)來糾正錯誤,3×3、5×5、7×7這樣的組合被稱為"邏輯量子比特”。
1個中心位置的物理量子比特存儲實際的量子信息(數據比特),周圍8個物理量子比特是輔助比特(也叫同步比特或錨定比特),這樣一個3×3的排列實際上只能存儲1個比特的信息,但它能夠保護這個信息不被環境干擾破壞。
就好比是運輸一個易碎品(量子信息),中心是易碎品本身(數據比特),周圍8個位置是包裝泡沫(輔助比特),雖然看起來用了9個空間位置,但實際運輸的有效物品只有中心的那一個,但這些"包裝泡沫"讓運輸變得更安全可靠。
這就解釋了為什么量子計算機需要這么多“物理量子比特”,而且物理量子比特數量看起來很多,但實際能用于計算的"邏輯量子比特"數量要少得多:比如要存儲10個比特的信息,使用3×3的方案就需要90個物理量子比特(10×9),用5×5方案則需要250個物理量子比特(10×25),用7×7方案需要490個物理量子比特(10×49)。這種"冗余"是必要的,因為它保證了量子計算的可靠性。
“我們希望隨著這些集合越來越大,糾錯能力也越來越強,這樣量子比特就會越來越準確。問題是,隨著這些東西越來越大,出錯的機會也越來越多,所以我們需要足夠好的設備,這樣當我們把這些東西做得越來越大時,糾錯能力就能克服我們引入系統的這些額外錯誤。”谷歌實驗室研究科學家Michael Newman(邁克爾·紐曼)在簡報會上說。
谷歌稱,這是一個30年來一直未實現的目標,直到現在Willow實現了突破——實現了每次邏輯量子比特的大小增加,從 3×3 到 5×5 再到 7×7,錯誤率就會呈指數下降。
這就像是在搭積木,以前積木堆得越高就越容易倒,但現在谷歌的這項研究,不但讓積木能堆得更高,而且越高反而越穩固。這也就有力地表明,未來實用的超大型量子計算機確實可以構建。
這一突破在業界被稱為“低于閾值”——即能夠在增加量子比特數量的同時降低錯誤。在《自然》雜志的這篇論文中,研究人員寫道:“雖然許多平臺已經展示了量子糾錯的不同特性,但至今沒有一個量子處理器明確地表現出低于閾值的性能。”
“如果不低于閾值,那么進行量子糾錯真的毫無意義,這確實是未來實現這項技術的關鍵因素。”朱利安·凱利補充說道:“量子比特本身的質量必須足夠好,才能進行糾錯,我們的糾錯演示表明,在集成系統層面,一切都同時工作,這不僅僅是量子比特的數量、T1 或雙量子比特錯誤率的問題。這也是這項挑戰長期以來一直難以解決的原因之一。”
“Willow 讓我們更接近運行傳統計算機上無法復制的實用、商業相關算法。”哈特穆特·奈文說道。
5分鐘完成一次計算,而Frontier則需要10^25年
為了衡量 Willow 的性能,谷歌使用了隨機電路采樣 (RCS,Random Circuit Sampling) 基準。“RCS 由谷歌量子AI團隊首創,現已被廣泛用作該領域的標準,是當今量子計算機領域最難的經典基準。”哈特穆特·奈文介紹說。
具體而言,RCS被用來展示量子計算機和經典計算機之間快速增長的差距,并強調量子處理器如何以雙指數速度剝離,并將隨著量子位的擴大而優于經典計算機。它涉及產生和測量隨機量子電路的輸出(隨機量子電路是以一種看似任意的方式應用于量子位的量子門序列)。
如開篇所述,Willow在RCS測試中的表現令人驚嘆:它在不到五分鐘的時間內完成了一項計算,而當今最快的超級計算機Frontier需要10^25年。“它證實了量子計算發生在許多平行宇宙中的觀點,這與 David Deutsch 首次提出的‘我們生活在多元宇宙中’觀點一致。”哈特穆特·奈文說。
圖:計算成本受可用內存的影響很大。因此,谷歌的估算考慮了一系列場景,從內存無限的理想情況(▲)到更實用、在 GPU 上可并行執行的實現(?)。
在簡報會上被問及“在實際應用下,我們離看到量子計算機還有多遠?”時,哈特穆特·奈文介紹說,量子計算機在藥物發現、核聚變反應堆、肥料生產、量子機器學習、電動汽車電池等都有用武之地。
在藥物發現方面。“約75%的小分子藥物都會被P450酶代謝,這基本上是小分子藥物必須避開的一個關卡,這個酶目前還沒有被充分理解,而量子計算機有望能更好地對它建模,谷歌正在研究這一應用,試圖用量子計算機理解酶復合物P450。”
在機器學習方面。“現在AI無處不在,但重要的是要認識到,有許多基礎和計算問題,比如解決困難的優化問題或分解大數(Integer Factorization),這些無法只通過學習來解決,因為你需要龐大的訓練數據。這也是量子計算機能夠幫忙的地方。"
谷歌量子AI主任兼首席運營官 Charina Chou 補充說道,“現在的AI主要指機器學習,機器學習需要大量訓練樣本。比如ChatGPT的驚人成功,是因為有大量可用的訓練數據。在這方面,量子計算也能幫忙。谷歌實際上在這方面已經有一些展開工作,這將給我們帶來能從磁共振成像(MRI)和核磁共振(NMR)中獲得更多價值的算法。這些新的量子算法可以作為一個原子尺子,給出分子中原子核之間非常精確的距離。所以量子計算可以幫助收集原本無法獲取的訓練數據集,這是其與AI的另一個重要聯系。"
此外,Charina Chou還指出,“模擬大自然的最大機會可能就在量子力學系統中”,谷歌正在與許多大公司、學術機構和初創公司在物理、化學、材料科學領域展開合作,探索量子計算在各領域的應用場景。
系統工程是關鍵
在哈特穆特·奈文看來,系統工程是設計和制造量子芯片的關鍵:芯片的所有組件,例如單量子比特門和雙量子比特門、量子比特復位和讀出,都必須同時經過精心設計和集成。如果任何組件滯后或兩個組件不能很好地協同工作,就會拖累系統性能。
“因此,最大化系統性能貫穿于我們流程的各個方面,從芯片架構和制造到門開發和校準。Willow取得的成果是整體評估量子計算系統,而不是一次只評估一個因素。”
目前,Willow在上述兩個系統基準測試中(量子糾錯和隨機電路采樣)均擁有一流的性能,除此之外,Willow的T1時間(測量量子比特可以保留激發的時間長短——關鍵的量子計算資源)接近100 μs(微秒),比Sycamore芯片的20微秒提了5倍。
如果你想評估量子硬件并跨平臺比較,以下是關鍵規格表:
圖:Willow 在多項指標上的表現
當被問到“從2019年53量子比特的Sycamore,到現在105量子比特Willow的新成果,谷歌在量子計算上的技術路線似乎更注重質量而非數量,這是否意味著業界普遍追求'更多量子比特'的路線需要調整?”這個問題時,哈特穆特·奈文告訴科技行者:
量子計算機需要同時具備"數量"和"質量"兩個條件。簡單地增加量子比特數量是不夠的,因為如果錯誤率太高,這些量子比特就無法被有效利用。這就像是一臺電腦,如果經常死機,即使配置再高也無法正常工作。
如果一個量子計算機的門操作錯誤率是千分之一,那么執行一千次操作后,系統就很可能出錯。而在實際應用中,每個量子比特至少需要執行十次門操作。所以對于一個有100個量子比特的系統來說,需要將錯誤率控制在十萬分之一才算合格。
相比之下,某些其他設計雖然號稱有上千個量子比特,但錯誤率高達1/50或1/200。這種情況下,在整個系統崩潰之前,根本無法同時使用所有量子比特。“這就是為什么谷歌選擇先把重心放在提高量子比特的“質量”上,因為只有先解決了質量問題,增加數量才有意義。”
谷歌的研究團隊表示,他們正在開發新的技術來擴大系統規模。當前的工作重點是降低錯誤率,讓它達到量子糾錯的要求。隨著技術的成熟,量子比特的數量也會逐步增加。
谷歌的量子計算之旅
到目前為止,谷歌針對量子計算進行了兩種不同類型的實驗。
一方面,運行RCS 基準測試,該基準測試衡量了與傳統計算機的性能,但沒有已知的實際應用。
另一方面,對量子系統進行了科學模擬,這也帶來了一些新的科學發現,但這些發現仍在傳統計算機的范圍內。
圖:隨機電路采樣(RCS)雖然對于傳統計算機來說極具挑戰性,但尚未展示實際的商業應用。
視頻簡報會上,谷歌量子計算AI團隊公布了谷歌量子計算路線圖,谷歌稱,該路線圖的重點是通過開發能夠進行復雜、糾錯計算的大型計算機,來釋放量子計算的全部潛力,這些里程碑將引領我們朝著有意義應用的高質量量子計算硬件和軟件發展。圖上可見,該路線圖包含六個里程碑,谷歌目前的已經完成了兩個里程碑節點。
谷歌量子計算路線圖
談及投身于這趟量子計算之旅,哈特穆特·奈文在谷歌官網上寫道:
“我的同事有時會問我,為什么離開蓬勃發展的人工智能領域,轉而專注于量子計算。我的回答是,這兩項技術都將被證明是我們這個時代最具變革性的技術,但先進的人工智能將從量子計算中受益匪淺。這就是我將我們的實驗室命名為量子人工智能的原因。”
“量子算法具有基本的縮放定律(scaling laws),就像我們在RCS中看到的那樣,許多對人工智能至關重要的基礎計算任務也具有類似的縮放優勢。因此,量子計算對于收集傳統機器無法訪問的訓練數據、訓練和優化某些學習架構、以及對量子效應很重要的系統進行建模將是必不可少的。這包括幫助我們發現新藥、為電動汽車設計更高效的電池,以及加速核聚變和新能源替代品的進展。許多未來改變游戲規則的應用程序中在傳統計算機上是行不通的;它們正等待量子計算來解鎖。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.