国产亚洲tv在线观看,精品国产污污免费网站Av,欧美日韩无砖专区一中文字,亚洲欧美日韩国产综合五月天

網站首頁 | 網站地圖

大國新村
首頁 > 原創精品 > 成果首發 > 正文

量子計算機:技術路線、風險及戰略投資

【摘要】由于現有半導體微電子技術物理極限的原因,傳統計算機的發展漸漸接近其極限,而具有強大并行處理能力的量子計算技術的發展隨之成為現實需求。然而,通常外部環境會對量子計算的基本單位量子比特產生干擾,產生量子衰減而導致計算錯誤。面臨上述技術難題,全球出現了基于超低溫超導材料、離子阱技術、微電子制造技術和通過量子糾纏來獲取信息的四種技術實現路徑之爭。如何建造一臺大型容錯的通用量子計算機并將其應用于完成實際任務,同時帶來收益,具有很大的技術挑戰性與風險。量子計算機被稱為“21世紀的星球大戰計劃”,它的實現可以帶來信息技術的革命性變化。從歷史上看,一項技術的進步取決于對該技術投入的人力和資金的多少。當前,各經濟發達國家對量子研究的投入持續增長,已開始進行國家層面的指數級投資。

【關鍵詞】量子計算機 技術路線 技術風險 戰略投資

【中圖分類號】TP30         【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2021.07.010

李聯寧,西安交通大學城市學院教授。研究方向為物聯網、大數據、量子計算機。主要著作有《量子計算機——穿越未來世界》《物聯網技術基礎教程》《物聯網安全導論》《網絡工程》《大數據技術及應用教程》等。


傳統計算機技術的發展逐漸走向停滯

當近代半導體芯片技術的發展使得每個晶體管縮小到只容納一個電子時,按照傳統模式,此技術將達到控制電子的物理極限。傳統計算機技術的發展已逐漸走向停滯。

摩爾定律走到了盡頭:近20年芯片速度幾乎沒有提升。從1958年第一個僅包含一個雙極性晶體管的集成電路問世,到如今集成十幾億晶體管的處理器芯片的應用,集成電路在60多年的時間里發展迅速。我們現在使用的手機的性能已經相當于30年前的Cray-2超級計算機了。如此巨大的發展速度的背后是什么規律呢?要說清楚這個問題,我們就不得不提到芯片產業最著名的金科玉律——摩爾定律。

摩爾定律由戈登·摩爾(Gordon Moore)于1965年在《電子學》雜志中提出。在觀察了當時晶體管制造工藝的發展之后,摩爾提出:同面積的集成電路上可容納的晶體管數量會以每年增加一倍的速度發展。10年之后,摩爾根據當時的實際情況對摩爾定律做了第一次修正,將每年增加一倍改為每兩年增加一倍。然而,摩爾定律畢竟是一個經驗法則,半導體行業在摩爾定律的指導下一直發展到2013年。其后,行業組織對摩爾定律進行了第二次修正,將之前每兩年翻倍的發展速度改為每三年翻倍。這次的修正從工程的角度來看至少有四個原因。

首先是工藝的極限。半導體制造工藝中主要工藝之一是光刻。這種工藝在理論上受到分辨率的限制,即由于可見光的波動性使其可以發生衍射,光束不能無限聚焦。要實現更小的工藝,就要用到波長更短的激光,而短波長的激光利用起來本就非常復雜。因此,把單個晶體管做到更?。丛谕娣e的集成電路上容納更多的晶體管)變得異常困難。

其次是內部連接的極限。隨著單位面積集成電路中的晶體管越來越多,內部連接成了集成電路中越來越重要的部分。內部連接要么做到快速的信號傳輸,要么做到盡量細的銅線和密集的排布,但魚和熊掌不可能兼得。因為更細的銅線會產生更大的銅線電阻,而更密集的排線也會造成銅線間電流相互影響的加大。所以,即便晶體管能夠越做越小,如何在保證快速信號傳輸的同時加入更多的內部連接也成為一個非常棘手的問題。

再次是傳統晶體管的設計極限。當晶體管尺寸做到10納米(nm)的時候,晶體管的柵氧化層只有幾個原子的厚度。在這個尺度下至少會有三個問題。其一,在量子隧穿效應的影響下,晶體管的性質將變得很不穩定。其二,由于各個晶體管的制造過程不可能完全一樣,因此不同晶體管會有不同的特性,而不同的特性在納米級的尺度下會更加明顯。其三,晶體管將會發生嚴重的漏電。這在移動設備普遍使用的今天是一個相當大的問題。

最后一個要提到的是技術投入的極限。新科技的研發需要大量的資金和時間,即便研發成功,公司的技術人員也需要投入大量的精力去學習并使用這些新技術。這就導致很多中小芯片制造商無力承擔這項技術投入,而選擇繼續使用老技術進行生產加工。[1]

多核的陷阱:一直在“偷懶”的芯片。早在1971年,英特爾就推出了首個商用但速度僅有740kHz的計算機芯片。在此之后,芯片速度得到了迅速提高,在不到30年后的2000年已經突破2GHz,實現了近3000倍的增長。然而2000年似乎成為芯片速度提高的一個坎,直到今天,市場上多數處理器的速度仍在3GHz左右徘徊。

2001年,IBM(International Business Machines Corporation)制造出了世界上第一個雙核處理器,使得兩個低速度、低功耗的處理器可在性能方面與當下單個高速度的處理器相匹敵,并由此開辟了并行化體系結構的市場。2004年,英特爾在AMD發布了其第一個雙核處理器后,更是宣布取消其對4GHz處理器的研究,轉而與同行一起投入到多核處理器的研發當中。由此,計算機芯片的發展從之前的更高速的單核研究轉變到同等甚至低速的多核研究。究其原因,主要是更高速的處理器的功耗和散熱已經達到了不可忽視的地步。

2013年,在第二次修正摩爾定律的同年,功耗成為計算機發展的主要挑戰。當晶體管的尺寸越做越小時,量子隧穿效應(指電子等微觀粒子能夠穿入或穿越位勢壘)產生的漏電現象帶來了越來越大的熱能轉換,使得芯片的散熱成為急需解決的問題。于是,芯片制造商們紛紛停止高頻芯片的研發,轉而開始研究低頻多核的架構。這才有了從2001年出現的第一個雙核芯片到現在普遍家用電腦的4核芯片,再到如今英特爾最新架構上的64核芯片的發展。

然而,從單核向多核的發展并沒有從根本上解決問題。因為芯片制造商僅僅是停止了高頻單核的研發,但并未停止往同面積的集成電路內加入更多的晶體管。在晶體管越做越小并因晶體管漏電而導致芯片發熱越來越嚴重的今天,芯片制造商們又是如何解決功耗以及散熱的問題呢?答案是,沒有解決。

為了在現有的散熱技術上保證芯片不至于過熱和功耗不至于過大,如今多核芯片中已經有一部分不能和其余部分同時使用。舉個簡單的例子,對于一個65納米下的4核處理器,額定功耗允許其4個核同時全速工作?,F在當工藝縮小到32納米時,等面積的處理器能容下16核,但是能夠同時工作的仍然只有4個核,而不能和其他部分同時使用的12個核被稱為“暗硅”。按照如今的發展速度,現代處理器的“暗硅”部分很快就能大到99%。也就是說,按照如今的發展,不久之后的芯片,即便性能再好,在同一時間能夠利用的也只是1%。[2]

阿姆達爾定律:程序并行化的極限。下面我們暫時拋開硬件,從軟件程序的角度解釋系統并行化的極限。多核芯片處理的問題在于:在此之前的絕大多數程序都是按照串行算法開發的,而這些程序還不能很好地在多核芯片上并行執行。因為整個程序里并沒有啟用多余的核進行處理,而這些多余的核在大多數時間里也都是閑置的。于是學術界和廠商開始了又一波對并行化的研究。他們一部分人希望通過設計新的編程語言,讓程序員人工提高程序的并行度;另一部分人則希望通過對編譯器的優化,使編譯器自動識別程序中可并行的部分并生成可并行的二進制碼。然而雙方的成效都非常有限。

可并行的編程語言需要程序員有并行的編程思維,而這多多少少有違人類本身的邏輯思維方式。同時,并行語言為程序調試帶來了很大挑戰。因此,大規模的并行程序開發相當困難。與此同時,編譯器能在程序中找到的可并行部分也相當有限,這也使得自動并行化的效率非常之低。這么看來,多核芯片真的是一個好的決定嗎?程序的并行極限又在哪里呢?要解釋這些問題,我們便不得不提到計算機科學界的另一個經驗法則——阿姆達爾定律。

阿姆達爾定律于1967年由IBM360系列機的主要設計者吉恩·阿姆達爾(Gene Amdahl)提出。該定律首先將一個程序分成可并行和不可并行兩部分,并指出程序中對某一部分進行并行后所能獲得的系統性能改進程度取決于并行部分被使用的頻率或所占總執行時間的比例。換句話說,在并行計算中用多核處理器對單個程序的加速受限于該程序所需的串行時間百分比。比如,一個程序中如果有一半是不能被并行的,那么即便有無限核的處理器,該程序能得到的最大加速比也只是兩倍。如果同時考慮邏輯門和銅線連接的延遲,則可并行化的加速上限將在一個更低卻更現實的高度。同時,在銅線延遲開始超過邏輯門延遲的今天,信號已經無法在一個時鐘周期內被傳達到芯片的所有地方。

當然,研究領域里也不乏試圖再次突破現有體系所帶來的物理極限的嘗試。其中最大的項目要數對量子計算機的研究。從底層電路到計算機體系結構,再到上層的算法設計,學術界和工業界都投入了大量精力進行研究。

量子計算是計算機技術發展的必然?;谇懊嫠撌龅膫鹘y計算機面臨的極限,當下計算機的研究越來越多地跳出了傳統計算機的范疇。人類早就在尋求開發新一代計算機,比如光子計算機、DNA計算機以及量子計算機。這兩年比較火的是量子計算機,與硅基計算機使用0、1做運算只能表示2個狀態不同,量子計算機利用的是量子學的測不準原理,使用量子比特(qubit)計算,它的并行計算性能異常強大,可以處理普通計算機處理不了的計算。

量子計算機應運而生

量子力學(Quantum Mechanics)是物理學科專業領域的一個分支,專門研究微小粒子所具有的結構和性質,它為新的計算模式提供了基礎。量子計算(Quantum Computing)在20世紀80年代初被首次提出,主要是借助微小的“量子”行為改進計算模型。當時人們研究量子計算機的初衷是模擬量子現象,服務物理學。當使用傳統計算機模擬量子現象時,由于龐大的數據分析使得一次模擬所需運算時間過長,甚至可能窮盡科學家一生也看不到一次完整的結果。于是量子計算機研究應運而生。

量子計算機是一種完全不同的計算模式。量子計算機不只是更快的計算機,更是一種完全不同的計算范式,需要進行一些徹底的重新思考。在高等數學里,通過坐標變換可以將某一對象(例如一個矢量)所處的不同坐標系進行連接。量子力學應用于量子計算技術,可以用“幺正變換”(從一個表象到另一個表象的變換)來表示。這有點像到醫院做了一次超聲波檢查,是在一個聲學的象限;又做了一次CT電子計算機斷層掃描檢查,是在一個電子的象限。它們是從不同的層次和斷面來看同一個事物的不同側面,而且可以互相轉換。在這個意義上,傳統計算機的計算只是量子計算機計算的一個特例。

量子計算機的類型。量子計算機可分三大類:其一,模擬量子計算機,它直接操作量子比特之間的相互作用,而不把其行為分解成基本的門操作,包括量子退火器、絕熱量子計算機和直接量子模擬器等。其二,數字NISQ計算機(Noisy Intermediate-Scale Quantum),含噪聲的中型量子計算機,它使用物理量子比特上的基本門操作,執行一種特殊的算法。但是,這兩種機器都存在噪聲,這個缺點將限制這些計算機解決復雜的問題。其三,完全誤差校正量子計算機,它是基于門的量子計算機的一個版本,通過部署量子誤差校正,使有噪聲的量子比特模擬穩定的邏輯量子比特,以便計算機在任何計算中都能可靠地工作。

量子計算機發展的階段性成果。量子計算的第一個里程碑是小型專用NISQ計算機的出現。小型NISQ計算機是2017年由John Preskill提出的在未來幾年將擁有50~100量子比特的機器,但其中還是有數十個量子比特的錯誤無法修正。它所使用的量子退火技術的研究大約在其出現的10年前就開始了。第二個里程碑是獲得“量子霸權”(超越50量子比特),即完成一項在經典計算機上難以完成的任務(暫且不討論這項任務是否具有實用價值)。2019年,在幾個團隊的不斷努力下,這一目標得到實現。第三個重要的里程碑就是創造一個商業上有用的量子計算機,這要求量子計算機比任何經典計算機更有效地執行至少一個實際任務。在理論上實現這一里程碑比實現“量子霸權”更困難,因為它所需的應用程序必須比現有的經典方法更好、更有用。第四個重要里程碑是在量子計算中部署量子誤差校正以創建邏輯量子比特,從而顯著的降低錯誤率,這也是創建完全誤差校正機器的第一步。

超高速量子計算機可能的具體應用有:加速新藥物的研制,破解最復雜的密碼安全系統,設計新材料,模擬氣候變化,以及實現超級人工智能。然而,目前業內還沒有就如何研發量子計算機達成共識,對于其將如何用于大眾市場也尚未意見統一。[3]

各國科技巨頭的競爭

目前,基于超導電路的量子比特和基于量子阱的量子比特研究取得一定進展,但其電路體積較大,使得大數目量子比特的集成面臨很大困難,進而影響到量子計算的實際應用。

制約量子計算技術發展的主要因素。自上世紀80年代有了相關概念以來,一些計算機專家和物理學家就將量子計算機設為其研究的終極目標。然而,由于量子點具有天然的不穩定性,迄今為止人類在該領域仍未能有較大突破。制約量子計算機發展的三大因素分別是:量子的精度問題、量子擴展性問題、量子微秒級處理時間問題。

首先,量子的精度問題。例如,普通計算機在計算1+1等于幾時,基本不會出錯,而量子計算機由于量子精度不高的原因,可能運算1千次1+1的問題時,就有一次答案會出錯。其次,量子擴展性的問題??茖W家們發現,量子計算機的量子比特位數越高,由于外界環境的影響,整體運算精度就會相應大幅下降,這也是各國力爭不斷增加各自量子計算機的量子比特位數以增加計算成功率的原因。第三,各國在研制量子計算機中遇到的最難問題——量子微秒級處理時間問題。由于量子之間存在相互影響,量子數據會在極短時間內“損壞”,也就是說,在使用量子計算機時,必須在微秒級的時間內完成計算,并將計算數據導出。

近年量子信息技術發展情況。量子信息技術主要包括三個方面:量子計算、量子通信和量子精密測量。根據相關統計資料,在量子計算方面,美國最強,歐洲次之;在量子通信上,中國領先,歐洲次之;在量子精密測量上,歐洲是老大,其次是美國,中國弱一些。

2017年4月,量子集成化記錄是谷歌(Google)的9量子比特;同年10月,英特爾(Intel)宣布制造出17量子比特的量子芯片;11月,國際商業機器公司(IBM)宣布成功研制50量子比特原型機;2018年1月,英特爾宣布成功設計、制造和交付49量子比特的超導測試芯片;同年3月,谷歌宣布成功制造72比特的超導集成量子計算機。短短1年多時間,竟然取得了如此巨大的成績!不過,現在實際能夠工作的超導集成量子計算機只有IBM的20量子比特、Rigetti Computing公司的19量子比特、中國科學技術大學的12量子比特、阿里巴巴的11量子比特、谷歌的9量子比特計算機。2018年12月后,先后出現的谷歌、IBM、英特爾的49~72量子比特的“中規模量子計算機”仍在評價之中。

當前量子計算機領域,谷歌、IBM、英特爾、Rigetti Computing四家公司正在著力提高集成化,緊追其后的是中國科學技術大學、阿里巴巴、微軟。從現在業界的信息來看,很多公司將“超導集成量子計算機”作為后續商業化的重心。與此相對抗的還有硅基(Intel、Silicon Quantum Computing、日立等公司)、離子阱(IonQ、Alpine Quantum Technology、Honeywell等公司)、馬約拉納粒子(Microsoft、NOKIA等公司)、光子(Xanadu等公司)等平臺。今后量子計算機領域會朝著哪個方向發展,目前無法給出進一步預測。

量子計算領域尚未就比較不同量子計算機的最佳方式達成一致,特別是那些建立在不同技術上的量子計算機。盡管IBM和谷歌都在使用超導體來創建它們的量子比特,但另一種方法依賴于捕獲離子,即讓帶電原子懸浮在真空中,并由激光束操縱。IBM提出了一種稱為“量子體積”的度量標準,其中包括諸如量子比特執行計算的速度以及它們避免或糾正錯誤的能力等因素。

量子計算是具有革命性的下一代計算技術,當前,各國量子計算模型的設計都比較成熟,但也都面臨其所依托物質的困境。量子計算機需要依托超導物質、超導環境來實現并運作。然而目前,幾乎所有國家都缺乏可實用的超導材料。雖然表面上各國在研發的量子計算機的量子比特上存在一定差距,但實際上,各國量子計算技術都遠未達到可以商業化的水平。

各國量子科技力量的競爭。(1)美國。美國是研發量子計算機較早的國家之一。很多美國跨國公司是量子計算研究的主要力量。作為行業領頭羊,谷歌選擇了超導回路技術。超導回路是量子計算領域近期發展最快的方向,IBM也已為此投入大量資金。另一科技巨頭微軟(Microsoft)則選擇了一個尚未得到驗證的方向:拓撲量子比特。

量子比特數量是這些公司的競逐重點。谷歌目前研發出72量子比特芯片Bristlecone(狐尾松),成為現今量子比特數最高的紀錄保持者,而英特爾與IBM則分別以49個與50個量子比特緊追其后。相比之下,微軟仍在設法開發一款可運行的計算機。微軟正在追求一種新型設計,其基礎是控制一種難懂的馬約拉那費米子(Majorana fermion),而就在幾年前,還沒有人能夠確定這種粒子是否存在?,F在,工程師們即將能夠以一種方法控制馬約拉那費米子,使其能夠執行運算。美國研發量子計算機的主要公司,具體情況分別如下。

谷歌在2017年首次組裝了一臺量子計算機,但那次嘗試沒有成功,因為這個含有72個超導量子比特的系統太難控制了,在糾錯之后,有效利用的只有9個量子比特。2018年,谷歌推出一款72個量子比特的通用量子計算機Bristlecone,實現了1%的低錯誤率,在量子比特數量上首次領先于其它對手。后來,谷歌與美國國家航空航天局合作,共同開發量子計算機技術。2019年10月,谷歌宣布開發出名為Sycamore的量子計算機,有54個超導量子比特,其中在測試期間工作的超導量子比特有53個,測試的計算任務是“證明隨機數發生器產生數字的隨機性”。據報道,Sycamore能夠在3分20秒內完成上述計算,而世界上最快的傳統超級計算機“頂點”解決同樣的問題大約需要1萬年。這意味著傳統計算機無法就此進行計算,而Sycamore成為第一個證明量子計算優勢的計算機。

在開發量子計算機的競爭中,IBM是谷歌的最大競爭對手。在眾多美國公司中,IBM公司是最早進入量子計算機領域的企業之一,其主要的超前點在于量子比特量級。據稱,IBM能操縱的量子比特量級大幅領先于其他公司,已達50量子比特能力。理論上來說,超過49比特的量子計算機在性能上就能超過傳統計算機。該公司2019年1月曾在美國拉斯維加斯消費電子展上展示了可操縱20個量子比特的“IBM Q系統1”,其被IBM稱為可“商用”的量子計算機。同年9月,IBM公司宣布將推出53量子比特的可“商用”量子計算機,并將其95%的計算能力向用戶開放(其量子計算系統的用戶包括美國摩根大通銀行、日本三菱化學等)。IBM還表示,自2016年以來,全球用戶社區通過云計算在IBM的量子計算機上進行了1400多萬次實驗,并發表了200多篇科學論文。

2018年1月,英特爾宣布開始制造并交付49量子比特的超導量子芯片,而2個月前其剛宣布制造了17量子比特的量子計算機芯片。量子計算機實際上分為很多種類,英特爾的這個量子芯片基于低溫超導量子原理,另外他們還在研究其他量子計算機類型,并表示其也在300mm晶圓上制造出了自旋量子比特。

這里需要說明,量子計算機現在還在發展的初級階段,不論是谷歌的72量子比特、IBM的50量子比特還是Intel的49量子比特計算機,實際上都遠遠不夠。英特爾表示業界還要5到7年時間才能解決規?;瘑栴},真正商業化的量子計算機至少需要100萬個量子比特甚至更多。

2019年11月,微軟宣布了一項名為Azure Quantum的云計算服務。通過這項服務,人們可以通過云計算平臺來訪問量子計算機。Azure Quantum是一個全棧式開源量子云生態系統,它將微軟先前發布的量子編程工具與云服務集成,使編碼人員可以在模擬量子硬件或真實的量子計算機上運行量子代碼。Azure Quantum的不同之處在于,它能夠讓客戶訪問多種量子計算技術,這很有可能是未來量子市場的發展趨勢:由于量子硬件難以操作,因此,大多數公司都會選擇通過云服務來實現自己對量子計算的需求,而不是購買或自建自己的量子計算機。實際上,此前微軟已經推出了Q#量子計算編程語言,并集成到軟件開發工具包Visual Studio系列產品當中。與此同時,微軟也提供了本地和云上的量子計算機模擬器,可讓用戶提前嘗鮮,在經典的計算機體系結構上嘗試量子計算。當然,微軟也提供了大量的文檔和案例,感興趣的開發者今天就可以學習和嘗試量子編程。

(2)加拿大。加拿大D-Wave系統公司,是量子計算系統、軟件和服務開發與商用的量子計算機公司,也是世界上為數不多的量子計算機供應商。2011年,其推出的商用量子計算機D-Wave One具有128量子比特處理器。2013年、2015年和2017年D-Wave又分別推出了512個、1000個和2000個量子比特的設計。第四代量子計算機D-Wave 2000Q就具有2000量子比特處理器。

目前,D-Wave系統公司具有完整的量子計算機操作系統、軟件和開發人員工具。D-Wave系統公司主要客戶是洛克希德馬丁公司、谷歌、美國宇航局、大眾、DENSO公司,USRA公司、南加州大學、美國洛斯阿拉莫斯國家實驗室和美國橡樹嶺國家實驗室等。2019年9月,D-Wave系統公司宣布其新一代5000-Qubit量子退火計算機將首次出售給洛斯阿拉莫斯國家實驗室(the Los Alamos National Laboratory)。

(3)英國。英國量子信息技術中心也在探索超導回路,但其主攻方向是一項發展較為成熟的技術:離子阱。離子阱的工作原理是將離子通過電磁場限定在有限空間內,利用電荷與電磁場間的交互作用力來牽制帶電粒子的運動,將其局限在某個小范圍內?;诹孔拥募m纏態現象,通過激光可實現原子的糾纏。經過超冷處理的原子被囚禁在真空中,由激光束組成控制離子狀態的通道網絡,而這個網絡結構是可以不斷擴張的。一個離子阱就像一個算盤,原子在其中可以被不斷撥來撥去。

如果谷歌的超導回路是一個芯片,那么英國量子信息技術中心的方案就是制作很多個小芯片。一個個離子阱,可以通過光學元件進行連接。英國量子信息技術中心的最終目標是制造一臺Q20:20的量子計算機樣機,其中包含20個離子阱,每個離子阱里囚禁20個原子,整體相當于一臺400量子比特的量子計算機。

(4)澳大利亞。2016年,澳大利亞計劃從硅開始制造量子處理器,而新南威爾士大學的研究人員開發了一種基于互補金屬氧化物半導體(CMOS)工藝設計的新的計算機芯片。該芯片是世界上第一個純硅量子計算機芯片。其量子疊加態的穩定性比以前提高了10倍,這有助于開發更可靠的硅基量子計算機。澳大利亞科研人員計劃到2022年研制出一個10量子比特的基于硅基集成電路的芯片,這將成為建造世界上第一臺基于硅基的量子計算機的重要里程碑。

(5)日本。2015年,日立制作所開發出堪與“量子計算機媲美”、基于CMOS Annealing(退火)技術的非馮·諾依曼型計算機處理器,其工作原理與加拿大D-Wave系統公司推出的商用量子計算機相似。然而,D-Wave系統只能在極度低溫下工作,而且非常容易受噪聲干擾,而日立的系統可以在室溫下工作。日立已經試制出規模為D-Wave系統公司預定投產的量子計算機的約10倍的系統,并進行了工作演示。2015年日立發布的成果在量子計算機研究者中引起了轟動。按照過去的常識,即便是D-Wave系統等公司在短時間內得出結果的模型,也需要結合“量子糾纏狀態”“隧道效應”等量子力學效應。如果如日立公司成果一樣,在室溫下工作、采用半導體技術的計算機也能夠獲得與量子計算機相同的結果,那么量子計算機有可能失去其存在的意義。

新型計算機的定位并不是替代傳統計算機,而是要覆蓋傳統計算機不擅長的領域,二者是互補關系。對于利用傳統計算機求解非常費時、費電的問題,可以利用新型計算機快速、省電地求出近似解。日立預測,今后在解決利用大數據、物聯網、物流系統等社會性課題的時候,此類問題將頻繁出現。該公司希望利用此次開發的技術解決社會性課題。

(6)中國。中國在量子計算技術方面的主要優勢在量子通信領域。從當前發展程度來看,中國是較早進入這一領域,且處于國際“第一梯隊”的國家,與西方國家幾乎同步,且在超導技術方面可與掌握最先進技術的國家并駕齊驅。同時,在量子通信技術上,中國受到外界的技術干擾、管制的影響較小,發展前景良好。

2016年8月16日,中國發射全世界首顆量子科學實驗衛星“墨子號”。截至2017年8月,其已完成包括千公里級的量子糾纏分發、星地的高速量子密鑰分發,以及地球的量子隱形傳態等預定科學目標。2017年9月,中國量子保密通信干線“京滬干線”開通。當日結合“京滬干線”與“墨子號”量子衛星,成功實現人類首次洲際距離且天地鏈路的量子保密通信。“京滬干線”連接北京、上海,貫穿濟南、合肥,全長2000余公里,全線路密鑰率大于20千比特/秒(kbps),可同時供上萬用戶密鑰分發。

全球量子計算技術發明知識產權專利排行。量子計算是一種遵循量子力學規律、調控量子信息單元進行計算的新型計算模式。經過多年發展,量子計算技術的研究與應用探索不再只停留在理論研究階段,而已經受到世界科技強國的高度重視,成為新興技術領域熱點,并已經初具產業生態。2019年11月,知識產權產業科技媒體IPRdaily與incoPat創新指數研究中心聯合發布了“全球量子計算技術發明專利排行榜(TOP20)”,對截至2019年9月30日,在全球公開的量子計算技術發明知識產權專利申請數量進行統計排名。入榜前20名企業主要來自7個國家和地區。從國家來看,排名與入榜數量占比由上而下分別是:美國占比50%,日本占比15%,英國、加拿大各占比10%,中國、澳大利亞和韓國各占比5%。其中,來自加拿大的量子計算公司D-Wave以325件專利位列第一,來自美國的科技公司IBM和Microsoft分別以235件專利和212件專利排名第二位和第三位,來自中國的量子計算公司本源量子以36件專利排名第十二位(具體排名如表1所示)。入榜專利主要涉及與量子計算相關的結構、算法以及系統等技術領域。

1

1

量子計算發展主要困難和技術路線

1982年,量子計算機的概念由美國物理學家理查德·費曼(Richard Phillips Feynman)提出,但在20世紀80年代,量子計算機多處于理論推導等紙上談兵狀態。直到1994年,彼得·秀爾(Peter Shor)提出量子質因子分解算法,量子計算機開始成為熱門話題。目前為止,我們已經在控制量子比特方面取得重大進展,許多研究小組已經驗證了量子計算機的可行性并做出樣機。這些工作使量子計算機領域生氣勃勃,大量國家資本和私人投資進入其中。但量子計算的時代何時真正開始?這對于技術人員來說,是個至關重要的問題。因為量子計算一旦落地,將從根本上重新定義計算這件事。屆時我們所學的每一個算法都可能需要重寫,所有成果都需要翻新。

量子并行計算技術發展的主要困難。量子計算機現在只是剛起步,目前的硬件水平還不能制造出通用的量子計算機。量子比特會與外部環境發生作用而使量子衰減,這是目前面臨的主要技術難題,而實現量子并行計算的兩大技術困難如下:

其一,量子比特之間的相干性很難長時間保持。目前,量子計算機的研究還處于理論和實驗階段,只能產生幾十個量子位。為了在量子計算機中實現高效的并行操作,必須使相互關聯的量子比特串作一個整體,即量子相干。這樣,只要處理其中一個量子比特,影響就會立即傳輸到序列中的其他量子比特。這一特性是量子計算機高速運行的關鍵。

由于量子相干系統與周圍環境的相互作用,相干度會迅速衰減,并且隨著量子比特數的增加,保持相干態將變得越來越困難。目前,此連貫性只能維持不到一秒鐘。在如此短的時間內需要完成一定數量的邏輯運算,這對量子邏輯門的開關速度提出很高要求,而量子編碼是迄今發現的最有效的方法。量子編碼是用一些特殊的量子態來表示量子比特,以達到保持相干性的目的。主要的量子編碼方案是:量子糾錯碼、量子避錯碼和量子防錯碼。其中,量子糾錯碼是經典糾錯碼的類比,是目前研究最多的一類編碼,其優點為適用范圍廣,缺點是效率不高。

其二,要做出邏輯比特,則目前物理比特的數量仍不足。量子比特可以進一步分為物理比特和邏輯比特。由于噪聲的客觀存在和物理比特穩定性的一些缺陷,只有通過對多個物理比特的冗余處理,才產生邏輯比特。一般來說,噪聲較小的系統可以用較少的物理比特對邏輯比特進行編碼。與物理比特相比,邏輯比特具有更好的容錯性。因此,盡管IBM、谷歌和英特爾已經制作了原型機并獲得“量子霸權”,但如果他們想制作邏輯比特,則目前物理比特的數量還遠遠不夠。事實上,這些量子計算機還處于非常原始的階段,只能適用特定的應用。

當前,實現標準量子計算機的難點在于無法實現編碼邏輯比特,當然還存在系統擴展、邏輯門精度等問題。由于這些技術瓶頸,現在開發的量子計算機只能稱為原型,它們只能執行單一的特定功能,而無法實現通用的量子計算。

全球量子計算機四種技術實現路徑之爭??茖W界最近涌現出的一些進步重新點燃了科學家想方設法組建更強大的量子計算機的熱情,并促使其使用不同技術研制計算能力超強的量子計算機,從而使全球出現了四種主要的量子計算機技術實現路徑。

第一,用超低溫超導材料制成量子計算機。加拿大D-wave系統公司開發的量子芯片采用特殊的鈮金屬材料,這種材料在低溫下呈超導態,其電流具有順時針、逆時針和順逆時同時存在的混合狀態。在此基礎上,實現了量子計算。D-wave系統公司已經開始在市場上銷售量子計算機業務系統,主要客戶包括谷歌和美國宇航局噴氣推進實驗室。

第二,基于微電子制造技術的量子計算。過去幾年IBM依托于耶魯大學和加州大學圣巴巴拉分校在量子計算領域取得了進展,研究小組將超導材料錸和鈮分散在半導體表面,當冷卻到絕對零度時,半導體表面呈現量子行為。研究結果表明,量子計算可以建立在標準微電子制造技術的基礎上。

第三,離子阱制造量子比特。離子阱技術是利用離子阱中的離子制造量子比特,即利用電極產生電場,在電場里“俘獲”經過超冷處理的離子。研究人員已經能夠利用激光實現離子糾纏。到目前為止,研究人員已經用這種方法建立了一個由8個量子位組成的系統,全球有20多個大學和公司的研究實驗室從事類似的研發和設計。

第四,使用量子糾纏來獲取信息。量子計算機的基本單位是量子比特,即用原子的自旋等粒子的量子力學狀態表示0和1。量子比特因可同時處于0和1的狀態(量子疊加),使得量子計算機可以同時進行大量運算。根據量子力學的基本原理,隨著量子比特數的增加,其計算能力呈指數增長,但是觀測或測量量子比特可能會造成其計算潛力的削減。因此,研究人員利用量子糾纏來獲取信息。在量子糾纏中,粒子連接在一起,則測量一個粒子的性質可以直接揭示另一個粒子的相關信息。然而,如何擴大糾纏量子位的數目并保持糾纏態是當前量子信息研究領域的一個嚴峻挑戰。

量子計算機技術前沿。技術一,在極冷的環境下控制量子(主要研究者為谷歌、IBM和英特爾)。量子計算機能力的“大”和“小”,基本上取決于其量子比特的數量,而在傳統架構下,當量子比特的數量迅速增加,一些基本粒子對于外界的干擾會越來越敏感,導致錯誤率急劇上升。由于量子是微觀粒子,因此哪怕極其微小的電磁場都會對其構成干擾,產生所謂的“局部噪音”。同時,由于熱輻射和電磁輻射等環境噪聲的存在,量子系統會受到環境的干擾。只有在零場強和絕對零度的環境中,才有理想狀態下的量子計算。這也是為什么量子計算機要放在接近絕對零度(約-273.15攝氏度)的容器里,被嚴嚴實實地封閉起來,對外界干擾“嚴防死守”。但是,由于這種溫度環境需要消耗大量的資金和能源,這在一定程度上就阻礙了量子計算機小型通用化的技術進程。

技術二,采用“拓撲量子比特”進行計算(主要研究者為微軟)。微軟不是使用普通的“邏輯量子比特”(Logical Qubit)進行計算,其獨特的技術路線是采用“拓撲量子比特”(Topological Qubit)進行計算。拓撲量子比特是通過基本粒子的拓撲位置和拓撲運動來處理信息。無論外界的干擾如何“蹂躪”基本粒子的運動路徑,只要它還連續變化,從拓撲角度來看,其運動就是等價的。這也就是說,用拓撲量子比特進行計算,對于外界的干擾有極強的容錯能力。這樣一來,基于拓撲量子比特的計算機就可以在規模上很大,在能力上很強。微軟是當前壓寶拓撲量子計算的科技巨頭。這個技術一旦取得突破,長期困擾我們的諸多計算難題將迎刃而解。

技術三,使用量子退火原理尋找最優解(主要研究者為D-Wave)。量子退火算法可以這樣理解:在量子工作環境中加入一個隨機的擾動,使得計算的解更容易出現在距離最優解更近的地方,然后多次進行退火過程使結果不斷接近最優解。退火算法就是利用現實世界中量子系統的自然趨勢來尋找能量狀態的最低點。如果優化問題和量子系統自然趨勢的峰值和谷值相似,則每一個坐標就代表一種可能的解決方案,而高度(峰值和谷值的差)則表示能量值。最優解就是能量狀態的最低點和量子系統的谷值相互對應。

進一步的解釋是:在量子計算機里,由于量子的物質波,量子的位置可以是它附近的任一處,只不過概率不同。初始時,我們給予某量子一個擾動,就好比金屬開始退火時升高溫度,它有可能會產生一個與當前值有一定距離的新值,然后計算機比較這兩個值。接下來我們可以更改這個擾動,好比升高退火的溫度,使量子可能出現在更多的地方,并繼續進行比較判斷,直到最終找到最優解,而此時量子恢復初始的穩定狀態,就好比金屬的退火結束,溫度恢復到了正常溫度。這也是為什么這個方法被稱為量子退火。量子退火算法就是讓大自然自己去選擇最優的答案。目前商用量子計算機(其實是量子退火機)D-Wave Two會對每次計算任務重復4000次,以便使得解趨向更加精確。

國家層次的戰略投資

從歷史上看,一項技術的進步取決于對該技術投入的人力和資金的多少。技術的進步將推動經濟的收入,從而使資金可持續投資在研發、人才等方面并進一步促進技術創新。如同互聯網發展的過程,如果我們想在量子研究中實現持續的指數級別的技術進步,就需要進行指數級別的投資,并保持這種投資的良性循環。

在量子計算機研發中,先期的商業成功將增加整個領域的投資,但在沒有商業回報的中間研發環節,則需要政府增加資金支持,因為研發時,艱難的中間環節直接影響研發的成功與否。從現狀看,美國、英國、日本、中國等國以及歐盟都在加大對量子計算機開發的投入。

美國。2018年9月,美國政府發布《量子信息科學國家戰略概述》(National Strategy for Quantum Information Science),旨在確保美國在“下一場技術革命”中的全球領導地位。同年12月,時任美國總統特朗普簽署《國家量子計劃法案》(National Quantum Initiative Act),至此醞釀半年的《國家量子計劃法》正式生效。該法案旨在確保美國在量子信息科學及技術應用方面的領先優勢,支持量子信息科學技術的研究、開發、論證和應用,要求美國總統實施“國家量子計劃項目”(National Quantum Project)。法案授權在10年計劃的前5年投資12.75億美元用于量子信息科學,其中,向美國國家標準與技術研究院(National Institute of Standards and Technology)撥款4億美元,向美國國家科學基金會(National Science Foundation,United States)撥款2.5億美元,向美國能源部撥款6.25億美元。這些資金將用于培養科學家、拓展研究和建立10個量子研究與教育中心。同時,該法案要求加強聯邦量子信息科學技術研發的跨機構規劃與協調,建立一個國家量子協調辦公室(National Quantum Coordination Office),促使產業界與學術界建立伙伴關系。

英國。早在2013年的秋季預算中,英國政府就專門撥款2.7億英鎊用以支持“英國國家量子技術項目”(UK National Quantum Technology Project)在第一個5年的開展,意在加速量子技術的商業化進程。該項目包含4個研究中心,分別由4所高校主持,除了牛津大學領導的量子信息技術中心之外,還有伯明翰大學領導的量子傳感和測量中心、約克大學領導的量子通信中心、格拉斯哥大學領導的量子先進成像中心。從2014年英國啟動此項目,到2019年6月英國政府宣布向量子計算商業化投資1.53億英鎊以推動研發競賽、新產品和創新、行業主導項目以及投資加速,5年間總投資超過10億英鎊。

歐盟。2016年3月,歐盟委員會發布《量子宣言(草案)》,計劃于2018年啟動總額10億歐元的量子技術項目,旨在促進包括安全的通信網絡和通用量子計算機等在內的多項量子技術的發展,以確保歐洲量子產業在全球產業藍圖中的領先地位。2018年10月,“歐盟量子旗艦項目”(EU Quantum Flagship)啟動,這個10年預計花費10億歐元的超大項目計劃在三年內建造其第一臺量子計算機Open Super Q,其目標是構建一臺包含100個量子比特的量子計算機,并可以開放給外部用戶使用。德國、西班牙、瑞典、瑞士和芬蘭的10個學術和私營企業合作伙伴參與Open Super Q研發項目。歐盟量子旗艦項目重點關注四種量子技術:通信、計算、感知和仿真。同時,還將基礎科學納入其中。

日本。日本于2018年啟動“量子飛躍旗艦計劃”(Q-LEAP),總預算是10年220億日元,其中三分之一將投入到量子計算機研究領域,針對此研究課題日本政府采取了產學研一體化方式進行。日本政府計劃在2019年下半年將相關預算提高至250億日元,比當時的140億日元預算增加近一倍,以便加快量子技術的研發,為超高速量子計算提供基礎技術支持,同時計劃建立從基礎研究到知識產權管理的綜合性研究機構,推進人才培養。2019年11月日本政府專家會議在技術開發進度匯總表中提出,力爭20年后實現能夠進行超高速復雜計算的量子計算機實用化,縮小與歐美及中國相關領域的差距。

中國。中國將量子調控與量子信息列入“國家重點研發計劃”。2016年7月,中國政府宣布將啟動量子計算機研發。2017年2月,世界上最大的量子研究設施——中國量子信息科學國家實驗室建設啟動,一期計劃投入70億元人民幣,長期投資將達千億元人民幣。2020年12月,中國科學技術大學宣布,該校潘建偉團隊與中科院上海微系統所、國家并行計算機工程技術研究中心合作,成功構建76個光子的量子計算原型機“九章”,在量子計算第一階段樹起了一座里程碑。

風險與歷史機遇

盡管我們對量子計算和量子技術的探索可能需要漫長的時間,但其中努力終將擴展人類知識的邊界,并可能改變我們對于宇宙的理解。目前在量子計算機技術發展研究領域,技術風險與困難和發展機遇并存。

技術風險及需要克服的困難。第一,量子比特不能從本質上隔離噪聲。經典計算機和量子計算機的主要區別之一,即它們如何處理系統中微小的干擾噪聲。實際上,今天的經典計算機用于控制的操作位有很大的噪聲邊際,所以經典計算機可以抑制輸入端的噪聲污染,產生干凈無噪聲的輸出。然而,對于操作量子比特的量子計算機來說,最重要的設計參數之一是錯誤率,低錯誤率一直很難實現。即使到2018年,5個或者更多個數的量子比特系統其錯誤率也超過幾個百分點。在較小的系統中一般可以有效控制錯誤率,但當需要轉移到更大的量子比特系統中時則較困難,只有進一步抑制輸入端的噪聲污染才能成功地進行量子計算。

第二,無誤差的量子計算需要進行量子誤差校正(Quantum Error Correction)。雖然物理量子比特的操作對噪聲很敏感,但是可以在量子計算機中運行量子誤差校正算法來模擬無噪聲或者完全校正的量子計算。如果沒有量子誤差校正,像秀爾算法這樣復雜的程序就不太可能在量子計算機上準確運行。然而,執行量子誤差校正算法需要更多的量子比特,這使得計算機的開銷增大。雖然對于無錯誤的量子計算,量子比特數量至關重要,但是因為開銷過大,導致短時間內無法應用。

第三,大數據無法有效加載到量子計算之中。雖然量子計算機可以使用更少的量子比特來表示更多的數據,但是沒有辦法將大量的數據轉換成量子態。對于需要海量數據輸入的問題,產生輸入量子態所需的時間將占據大部分計算時間,這大大降低了量子計算的優勢。

第四,量子算法的設計具有挑戰性。測量量子計算機的狀態需將大量的量子態“折疊”成單個經典結果,這意味著,從量子計算機中所能提取的數據量與從同樣大小的經典計算機中提取的數據量相同。但在未來,要想充分發揮量子計算機的優勢,量子算法必須利用獨特的量子特性。因此,量子算法的實現需要一種新的設計原則。量子算法的發展是量子計算機技術發展的一個非常重要的方面。

第五,量子計算機需要新的成套軟件。由于量子程序不同于經典的計算機程序,需要進一步研究和開發軟件工具。量子計算機完整軟硬件工具的同步發展,將加速量子計算機的發展。利用早期的工具完成端到端的設計,有助于發現隱藏的問題,從而促進設計的整體成功,這也是經典計算機設計所采用的一套方法。

第六,量子計算機的中間狀態無法直接測量。量子硬件和軟件的調試非常重要。目前,量子態不能簡單地復制用于測試,任何量子態的測量都會導致計算停止。新的調試方法對大型量子計算機的發展具有重要意義。

在量子計算機實現之前,量子計算還存在著重大的技術障礙。構建和使用量子計算機,需要整合計算機科學、數學、物理、化學、材料科學等一系列學科。[4]

歷史機遇。今天,科學發展的趨勢有兩個:一是發現現有物質在原子層面和分子層面的組合方式,這涉及生命科學、高端材料等學科;二是探索世界存在的本質,量子論和相對論是這一領域里的兩大利器。

量子計算機的實現正在帶來信息技術的革命性變化,首先可能應用于醫療、國防、航天、金融、材料等行業。如果想在這些領域內有突破性的進展,就必須突破計算量太大的難關,就像在生命科學中,只有搞清楚有機物分子的排列,才有可能去模擬生命的各種可能性。因此,量子計算對這些領域的發展意義極大,計算能力的飛躍必然導致這些領域的大發展,屆時生命、物質、能量、空間、時間的本質就會展現在人類的面前,今天的人類連想都不敢想的應用也會隨之出現。

就算法而言,量子計算機有兩大優點:一是對于任意一個傳統計算機的算法,均有其相應的量子算法;二是存在傳統計算機算法無法模擬的量子算法。人們只要造出位數和傳統計算機相近的量子計算機,傳統計算機算法就必然會被取代。隨著人類使用的數據量越來越大,各種類型的量子計算機一定會走進我們的日常生活。量子計算機盡管在短期內不可能取代傳統計算機,但它必將是人類科技文明的一個重要里程碑,是未來科技的引擎。除了量子計算潛在的社會益處之外,這項工作對國家的安全也有重大影響。

量子計算對于推動基礎性研究具有重要價值,這些研究將有助于人類理解與認識未知世界。與所有的基礎性研究一樣,這一領域的進展會帶來革命性的新知識和新應用。量子計算一定會給這個世界帶來一次全新的技術革命,今天的我們甚至無法想象這樣的技術革命會給社會帶來怎樣巨大深刻的變化。

注釋

[1]J. Ren and V.K. Semenov, "Progress with Physically and Logically Reversible Superconducting Digital Circuits", IEEE transactions on applied superconductivity, 21(3), 2011, pp. 780-786.

[2]H. Esmaeilzadeh et al., "Dark Silicon and the end of Multicore Scaling", Annual International Symposium on Computer Architecture (ISCA), 38th, 2011.

[3]C. Monroe et al., "Large Scale Modular Quantum Computer Architecture with Atomic Memory and Photonic Interconnects", Physical Review A, 89(2), 2014.

[4]National Academies of Sciences, Engineering, and Medicine, Quantum Computing: Progress and Prospects, The National Academies Press, 2019.

責 編/桂 琰

 

Development of Quantum Computer: Technological Paths, Risks and Strategic Investment

Li Lianning

Abstract: Due to the physical limits of the existing semiconductor technology and microelectronics, the development of traditional computer is gradually approaching its limit, and the quantum computing technology with powerful parallel processing capability has been a growing need. However, the external environment usually interferes with the basic unit of quantum computing (qubit), resulting in quantum attenuation and calculation errors. To address the above technical problems, there has been a debate as to which of the following four technological paths should be adopted—the technology based on ultra-low temperature superconducting materials, the ion trap technology, the microelectronic manufacturing technology and the quantum entanglement to obtain information. It has been a great technical challenge and risk to build a large-scale fault-tolerant universal quantum computer and apply it to complete practical tasks while generating benefits. Quantum computer is known as the "Star Wars project of the 21st century", and its implementation can bring revolutionary changes to information technology. Historically, the progress of a technology depends on the amount of manpower and capital invested in it. At present, the investment by developed countries in quantum research has been increasing continuously, and they have begun to scale up investment at the national level.

Keywords: quantum computer, technological path, technological risk, strategic investment

[責任編輯:桂琰]

    1. <menu id="zcyhi"></menu>