研究稱人工智能才是理解量子系統(tǒng)的關鍵
當研究人員們在量子計算機上做實驗的時候,基本上相當于在黑暗中摸索。畢竟當前的計算機速度太慢,無法驗證任何量子實驗的結果。不過來自紐約熨斗研究所(Flatiron Institute)的一支團隊,卻認為可以通過人工智能(AI)來填補這個鴻溝。該團隊開發(fā)了一種據(jù)信能夠改變我們測量量子態(tài)的方法,為了證明,他們特地進行了一番模擬實驗。
![]() 方法涉及打造一套軟件工具,即借助神經(jīng)網(wǎng)絡來預測量子比特(qubit)的潛在的各個位置。 普通計算機只能夠通過普通的比特位(bit)來模擬一個量子系統(tǒng),即“0”或“1”,而量子比特能夠同時出現(xiàn)兩種疊加態(tài)。 大約 200 個量子比特位的模擬,就要動用 1×百萬×萬億×萬億 次的運算(是的,你沒有看錯)—— 這顯然不是一件簡單的事情。 量子比特并不是各自為戰(zhàn),而是會與其它量子比特糾纏產(chǎn)生更多的排列,從而極大地增加了必要的實驗數(shù)量。 好消息是,F(xiàn)latiron 團隊的新方法,借助了機器學習來完成艱難的工作 —— 這讓一臺普通計算機也能夠運行算法,而不是全面的 1 對 1 模擬。 這意味著只需百次排序,即可完成針對一個 8 量子比特系統(tǒng)的模擬,而不是動輒上百萬。此外,新方法也能夠在規(guī)模更大的量子系統(tǒng)上套用。 簡而言之,研究團隊開發(fā)的這種 AI 算法,可以高效地校準一個量子系統(tǒng)。神經(jīng)網(wǎng)絡支撐的該軟件,只會采集很小的數(shù)據(jù)樣本來運行模擬,以及將信息翻譯成人類可以理解的樣子。 完善之后,這類機器學習應用還可以在實驗模擬之外的領域發(fā)揮作用。論文合著者 Giuseppe Carleo 在接受 Eureka Alert 采訪時表示:
[cnbeta 編譯自:TNW]
|