《Future Generation Computer Systems》:Denoising diffusion models with optimized quantum implicit neural networks for image generation
編輯推薦:
針對現有量子擴散模型在量子硬件實現上的挑戰,研究人員開展優化量子隱式去噪擴散模型(OQIDDM)研究,結合優化量子隱式神經網絡(OQINNs)與一致性模型(Consistency Models),在多數據集上表現優于現有模型,為量子生成任務提供新方向。
在計算機視覺領域,圖像生成始終是研究的核心方向之一,其應用場景從合成數據創建到藝術創作等不一而足。經典的生成模型如穩定擴散(Stable Diffusion)等已在諸多領域展現出強大的技術優勢,但隨著量子計算技術的發展,如何將生成模型與量子計算結合成為新的研究熱點。量子生成模型作為經典生成模型在量子機器學習領域的量子模擬,雖具備潛在的數據生成優勢,但現存模型如量子生成對抗網絡(QGANs)面臨收斂困難、模式崩潰等問題,而量子去噪擴散模型(QDDMs)雖嘗試解決這些局限,卻因依賴混合 U-net 架構或含跡消除測量的混合態操作,在當前量子硬件上實現難度大,且存在訓練速度慢、參數多、對復雜數據集應用不足等問題。在此背景下,為突破現有量子生成模型在噪聲中等規模量子(NISQ)設備上的應用瓶頸,提升圖像生成質量與效率,國內研究人員開展了相關研究,其成果發表在《Future Generation Computer Systems》。
研究人員提出了優化量子隱式去噪擴散模型(OQIDDM),該模型將所提出的優化量子隱式神經網絡(OQINNs)與一致性模型(Consistency Models)相結合。關鍵技術方法包括:利用 OQINNs 優化現有量子隱式神經網絡的復雜結構,通過 OQINNs 對多時間步的圖像數據分布進行建模,借助一致性模型實現 O (1) 采樣步驟,在正向擴散過程僅采用經典高斯噪聲擾動輸入樣本,反向去噪過程運用優化后的量子隱式神經網絡。研究在 MNIST、Fashion-MNIST、E-MNIST 等數據集以及面部圖像生成任務上開展,并在三種不同的超導量子計算機上進行實驗。
實驗與基線設置
研究在 MNIST、Fashion-MNIST、EMNIST 數據集上評估模型有效性與效率,將 OQIDDM 與最新量子去噪擴散模型 Qdense(量子神經網絡含 1.8k 參數)對比,同時設計角度編碼的量子神經網絡(QNN,含 576 參數)作為對照組,OQIDDM 與 QNN 量子網絡結構相近且參數數量相同。
模型性能表現
實驗結果表明,在 MNIST、Fashion-MNIST、E-MNIST 數據集上,OQIDDM 在圖像質量方面優于現有量子擴散模型,且量子神經網絡參數更少。與最先進的量子生成對抗網絡模型 PQWGAN 及經典生成對抗網絡(如 WGAN-GP)相比,OQIDDM 在相同圖像生成任務中顯著提升圖像生成質量,同時大幅減少訓練參數。在面部圖像生成任務中,OQIDDM 首次將量子去噪擴散模型應用于復雜數據集,以極少的量子神經網絡參數取得了令人印象深刻的結果。對量子噪聲效應的分析以及在三種不同超導量子計算機上的實驗結果,進一步凸顯了 OQIDDM 在量子生成任務中的巨大潛力。
模型結構優勢
OQIDDM 結構類似經典去噪擴散模型(DDMs),包含正向擴散和反向去噪過程。正向過程僅使用經典高斯噪聲逐步擾動輸入樣本,反向去噪過程利用優化后的量子隱式神經網絡,通過離散時間步的噪聲樣本進行訓練,學習連續擴散過程的映射函數,減少了對每個時間步單獨訓練參數化量子電路(PQCs)的依賴,降低了網絡參數數量,訓練后采樣過程可通過酉矩陣在 O (1) 步內高效執行,簡化了現有模型在量子計算機上的復雜去噪步驟。
研究結論表明,OQIDDM 通過結合 OQINNs 的強表示能力與一致性模型的采樣優勢,更適合 NISQ 量子設備,實現了更高的圖像生成質量。該模型在參數效率、圖像生成質量及復雜數據集應用等方面突破了現有量子生成模型的局限,為量子計算與圖像生成領域的結合提供了新的有效途徑,展現了量子生成模型在實際應用中的廣闊前景,對推動量子機器學習在計算機視覺領域的發展具有重要意義。