《Expert Systems with Applications》:CLN: A multi-task deep neural network for chest X-ray image localisation and classification
編輯推薦:
胸部 X 線(CXR)解讀依賴專家且耗時,深度學習分類性能高但可解釋性不足。研究人員提出 CLN 多任務網絡,在 ChestX-ray14 子集上實現分類平均 AUC 0.918、定位平均 IoU 0.855,優于現有方法,為輔助診斷提供新方案。
在醫學影像領域,胸部 X 線(CXR)作為常用且經濟的檢查手段,廣泛用于多種疾病的檢測。然而,其準確解讀需要專業放射科醫生,過程耗時且易受主觀因素影響,存在漏診或誤診風險。同時,盡管深度學習方法在 CXR 圖像分類中表現出色,但 “黑箱” 特性導致醫生難以信任其決策,可解釋性不足成為臨床應用的主要障礙。如何提升模型的可解釋性,讓醫生直觀看到病變位置,成為推動 AI 在醫學影像中落地的關鍵問題。此外,現有一些方法計算復雜度高,在資源有限的臨床環境中推廣困難。
為解決上述問題,國外研究機構的研究人員開展了胸部 X 線圖像定位與分類的研究。他們提出了胸部 X 線定位網絡(CLN),這是一種多任務深度神經網絡,旨在實現 CXR 圖像中病理的定位與分類。該研究成果發表在《Expert Systems with Applications》。
研究人員采用的主要關鍵技術方法包括:基于預訓練的卷積神經網絡(CNN)作為主干網絡,在包含 14 種病理的大型 CXR 數據集上進行微調;主干網絡后接兩個并行分支,分別用于病理分類和通過回歸預測邊界框實現病理定位;在 NIH ChestX-ray14 數據集的子集上進行訓練和評估,該子集包含標注了 8 種病理邊界框的 CXR 圖像。
研究結果
- 模型性能評估:通過對 CLN-ResNet50V2、CLN-EfficientNetB4 等六種變體的評估,發現 CLN-CheXNet 在定位和分類之間取得了最佳平衡。在分類任務中,八種病理的最大分類平均 AUC 分數達到 0.918;在定位任務中,最大定位平均 IoU(交并比)精度為 0.855。
- 與現有方法對比:CLN 在定位和分類任務上均優于最先進的方法。相比基于 CNN 和 Transformer 的方法,其優勢顯著,不僅在分類和定位精度上更優,而且隨著 IoU 閾值的增加,性能下降更慢,同時架構更簡單。
結論與討論
CLN 的提出為 CXR 圖像的計算機輔助診斷提供了一種可靠的解決方案。其核心價值在于:通過直接預測病變的邊界框,實現了病理的可視化定位,顯著提升了模型的可解釋性,有助于醫生理解和信任 AI 的診斷結果,緩解了 “黑箱” 模型的信任危機;在保證高性能的同時,采用相對簡單的架構,避免了復雜網絡帶來的高計算資源需求和長訓練時間,更適合臨床環境的實際部署;在多個病理的分類和定位任務中表現出色,為輔助放射科醫生提高診斷效率和準確性提供了有力支持,有望在臨床篩查、遠程診斷等場景中發揮重要作用,推動 AI 在醫學影像領域的實際應用。該研究為后續 CXR 圖像分析的研究提供了新的思路和方法,具有重要的學術和臨床應用價值。