醫學圖像能提高各類疾病治療的精確性、可靠性,促進疾病治療的發展,是現代醫療的重要組成部分。人工智能的廣泛使用亦進一步優化圖像分析技術。
然而,採用人工智能算法的常規醫學圖像診斷,需依靠大量人手負責標註,為模型訓練提供監督信號,過程耗費大量人力和時間,成本代價極高。
香港大學(港大)工程學院的研究團隊開發出一種嶄新人工智能演算方法REFERS(Reviewing Free-text Reports for Supervision),能夠從數十萬份X射線影像報告中自動獲取監督信號來訓練預測模型,大幅減省人力成本達90%,其預測的準確度更超越用全由人手標註的數據訓練的人工智能醫學圖像診斷模型。
此項技術突破為實現通用醫療人工智能邁出重要的一步,研究成果已於《自然-機器智能》期刊發表,文章題為 “Generalized radiograph representation learning via cross-supervision between images and free-text radiology reports”(《通過圖像與文本X射線影像報告之間的交叉監督,學習通用的X射線影像特徵表達》)
「由人工智能推動的醫學圖像診斷極具潛力,可以減輕醫學專家的工作量及提高診斷效率和準確性,其中包括節省診斷時間及檢測一些不易察覺的異常跡象。」領導研究團隊的港大工程學院計算機科學系俞益洲教授說。
目前,採用人工智能算法的常規醫學圖像診斷通常透過兩個步驟獲得準確的標籤。放射科醫生的一項臨床常規工作是為每位病人X射線影像撰寫文本報告。然後,負責標註的人員須使用人工定義的規則及現有的自然語言處理(NLP)工具,從這些報告中提取和確認結構化標籤,而每個用到的標籤須制定一份列表,列出其它拼寫、同義詞和縮寫方式。所提取之標籤的準確性,最終取決於有關人員的工作質量及各種自然語言處理工具的成效。
REFERS利用人工智能直接從文本報告中學習X射線特徵表達。與嚴重依賴人手標註的傳統方法相比,REFERS能夠自動從文本報告中的每個詞獲取監督信號,用以訓練人工智能神經網絡精確解讀X射線影像。
「我們相信由醫生撰寫的X射線影像報告中抽象而複雜的邏輯推理語句能夠為訓練X射線影像的視覺特徵提供足夠的資訊。」俞教授說。
研究團隊利用公開數據庫37萬份X射線影像和文本報告作爲訓練模型的基礎,當中包含14種胸肺相關疾病包括肺不張、心臟肥大、胸腔積液、肺炎和氣胸等醫療診斷數據。
在訓練預測模型的過程中,團隊僅使用100張X射線影像便已建立了一個初步令人滿意的X射線影像識別模型,其預測準確度達83%。當使用的影像增加到1,000張,模型更展示出驚人的性能,預測準確度達88.2%,超越了用放射科醫生標註的10,000張X射線影像進行訓練的模型(準確度87.6%)。而當用作訓練的影像增加到10,000張,模型的準確度更達到90.1%。而一般來説,預測模型的準確度達85%以上, 已可作實際臨床診斷應用。
開發REFERS主要涉及兩個關鍵任務。在第一個任務中,REFERS將X射線影像編碼後再解碼為文本報告(預測結果),然後與醫生的文本報告(實際結果)比較來訓練和更新模型。在第二個任務中,REFERS將醫生的文本報告編碼為特徵,對照X射線影像的特徵編碼作對比學習,進一步精確預測模型。
「利用REFERS,我們成功地將數據標註量降低了90%(見上圖),從而降低開發成本並同時提高數據處理量和速度,預測準確度也有提高,這為實現通用醫療人工智能邁出重要的一步。」論文第一作者周洪宇博士説。
如欲瞭解此項技術突破的更多詳情,請瀏覽https://www.nature.com/articles/s42256-021-00425-9。
傳媒查詢:
工程學院
李美珊女士 (電話:3917 8519; 電郵:leecelia@hku.hk)