研究人員開發(fā)出合理化深度學習超分辨顯微成像方法
近年來,以深度學習為代表的計算超分辨方法可在不損失其他成像性能的前提下,提升顯微圖像分辨率或信噪比,表現(xiàn)出廣闊的應用前景。然而,針對生物醫(yī)學研究必需高保真度、可定量分析的圖像要求,深度學習顯微成像方法存在三大共性問題:受限于深度學習內秉的頻譜頻移(spectral-bias)問題,輸出圖像分辨率無法達到真值(ground truth)水平;受限于超分辨重建、去噪問題的病態(tài)性(ill-posed problem)和神經網絡模型的不確定性(model-uncertainty),重建或預測結果的真實性無法得到保障;深度神經網絡的訓練需要大量數據,但高質量訓練數據的采集在許多應用場景下極其困難、甚至無法實現(xiàn)。當前,深度學習顯微成像方法的研究和發(fā)展如火如荼,并表現(xiàn)出超越傳統(tǒng)成像性能極限的潛力,但上述問題阻礙了現(xiàn)有深度學習超分辨或去噪方法在生物顯微成像實驗中的使用。 10月6日,中國科學院生物物理研究所李棟課題組聯(lián)合清華大學自動化系、清華大學腦與認知科學研究院、清華-IDG/麥戈文腦科學研究院戴瓊海課題組,美國霍華德休斯醫(yī)學研究所博士Jennifer Lippincott-Schwartz,在Nature Biotechnology上,以長文(Article)的形式,發(fā)表了題為Rationalized deep learning super-resolution microscopy for sustained live imaging of rapid subcellular processes的論文。該研究提出了一套合理化深度學習(rationalized deep learning,rDL)顯微成像技術框架,將光學成像模型及物理先驗與神經網絡結構設計相融合,合理化網絡訓練、預測過程,從而實現(xiàn)了高性能、高保真的顯微圖像去噪與超分辨重建,并結合實驗室自主研發(fā)、搭建的多模態(tài)結構光照明顯微鏡(Multi-SIM)與高速晶格光片顯微鏡(LLSM),將傳統(tǒng)TIRF/GI-SIM、3D-SIM、LLS-SIM和LLSM的成像速度/時程提升30倍以上,實現(xiàn)了當前國際最快(684Hz)、成像時程最長(最長可達3小時、60,000時間點以上)的活體細胞成像性能,首次對高速擺動纖毛(>30Hz)中轉運蛋白(IFT)的多種運輸行為以及完整細胞分裂過程中核仁液液相分離(liquid-liquid phase separation)過程進行快速、多色、長時程、超分辨觀測。Nature Biotechnology針對這一工作同時發(fā)表了評述文章(Research Briefing)。 具體而言,李棟/戴瓊海研究團隊提出的合理化深度學習結構光超分辨重建架構(rDL SIM)不同于現(xiàn)有超分辨神經網絡模型的端到端(end-to-end)訓練模式,而是采用分步重建策略,首先利用所提出的融合成像物理模型和結構光照明先驗的神經網絡對原始SIM圖像進行去噪和高頻信息增強,然后通過經典解析算法進行SIM重建以獲得最終的超分辨圖像。相比于該團隊去年在Nature Methods上提出的超分辨重建神經網絡模型DFCAN/DFGAN,rDL SIM可將超分辨重建結果的不確定性降低3~5倍,并實現(xiàn)更高的保真度和重建質量;相比于其他去噪算法(如CARE),rDL SIM可恢復出調制在原始圖像中的莫爾條紋,并將高頻信息增強10倍以上。 |