與之前的假設不同,訓練數據集的大小將不再是量子人工智能的障礙。 洛斯阿拉莫斯國家實驗室的量子理論家、包含發表在《自然通訊》雜誌上的證據的論文的合著者 Lukasz Cincio 寫道:“許多人認為量子機器學習需要大量數據。 我們已經表明,對於許多相關問題,情況並非如此”。 他進一步寫道:“這為量子機器學習提供了新的希望。 當量子計算機超越經典計算機時,我們正在彌合我們今天所擁有的與量子優勢所需的差距。”
此外,該實驗室的量子理論家、文章的合著者 Patrick Coles 寫道:“對大型數據集的需求可能是量子人工智能的障礙,但我們的工作消除了這個障礙。 雖然量子人工智能的其他問題可能仍然存在,但至少我們現在知道數據集的大小不是問題”。
所有人工智能係統都需要數據來訓練神經網絡以識別或概括實際應用中的不可見數據。 假設參數或變量的數量將由稱為希爾伯特空間的數學結構的大小決定,對於大量量子比特的訓練,該空間會呈指數增長。 這個維度使得這種方法在計算上幾乎是不可能的。 qubit,或稱量子比特,是量子計算的基本計算單元,類似於經典計算中的比特。
研究結果的一個關鍵方面是,它們甚至為模擬量子人工智能模型的經典算法提供了效率保證,因此訓練和編譯數據通常可以在經典計算機上處理,從而簡化了過程。 然後從機器學習的模型在量子計算機上運行。
新演示產生的加速具有令人難以置信的實際應用。 洛斯阿拉莫斯國家實驗室團隊發現,他們可以保證可以編譯或準備一個量子模型,以便在量子計算機上進行處理,其計算門數遠少於數據量。
該團隊還表明,在對非常小的數據集進行訓練後,量子人工智能可以通過相變對量子態進行分類。
Sornborger 說,創建具有所需特性(例如超導性)的材料涉及到對相圖的理解,該團隊證明,只需經過最少的培訓,機器學習系統就可以發現相圖。
新定理的其他潛在應用包括學習量子糾錯碼和動態量子模擬。
“新方法的效率超出了我們的預期,”洛斯阿拉莫斯量子機器學習專家 Marco Cerezo 說。 “我們可以在幾分鐘內用很少的訓練點編譯一些非常大的量子操作,這在以前是不可能的。”
欲了解更多信息,請訪問以下鏈接 高壓線
或者直接到 紙
起草 BlogInnovazione.it