评估可解释的人工智能技术在多种成像方式下解释乳腺癌诊断的有效性  

Evaluating the Effectiveness of Explainable AI Techniques in Interpreting Breast Cancer Diagnoses Across Multiple Imaging Modalities

在线阅读下载全文

作  者:李禄 罗浩军[1,2] 

机构地区:[1]重庆医科大学附属第二医院乳腺甲状腺外科,重庆 [2]重庆市第五人民医院,重庆

出  处:《临床医学进展》2025年第2期1503-1512,共10页Advances in Clinical Medicine

摘  要:乳腺癌持续位居全球女性癌症发病与致死的主要原因之列。早期且精确的诊断对于优化患者预后具有举足轻重的地位。乳房X线摄影、超声检查及磁共振成像(Magnetic Resonance Imaging, MRI)等影像学技术在乳腺癌的诊断中扮演着至关重要的角色。然而,这些技术手段面临着准确性波动、操作员依赖性显著及结果阐释困难等多重挑战。在此背景下,人工智能(Artificial Intelligence, AI),尤其是可解释人工智能(Explainable Artificial Intelligence, XAI)的融入,已成为提升诊断精确度及增强信任度的革命性途径。本综述聚焦于XAI技术在乳腺癌诊断领域内,于不同成像模式中的应用效果比较。深入探讨了核心的XAI方法,诸如Shapley加性解释(SHAP)、局部可解释模型无关解释(LIME)以及基于梯度的类激活映射(Grad-CAM),着重阐述了它们在增进模型可解释性及提升临床实用性方面的具体成效。综述不仅分析了XAI技术在乳房X线摄影、超声及MRI应用中的优势与局限,还特别强调了其在提高AI辅助预测透明度方面的贡献。此外,本文亦评估了XAI在应对假阳性、假阴性问题以及多模态成像数据整合挑战中的效能。该评论的核心价值在于,它全面剖析了XAI在缩小AI技术进展与临床实际应用之间鸿沟的潜力。通过提升透明度,XAI技术能够增强临床医生对AI的信任度,促进其更顺畅地融入诊断工作流程,从而助力个性化医疗实践的推进及患者治疗成效的改善。综上所述,尽管XAI在提升AI模型可解释性与准确性方面取得了显著进展,但在计算复杂度控制、普遍适用性拓展及临床接纳度提升等方面仍面临诸多挑战。未来研究应着重于优化XAI方法、促进跨学科间的深度合作,并开发标准化的框架体系,以确保XAI技术能在多样化的临床环境中实现可扩展性与可靠性的双重提升。Breast cancer remains one of the leading causes of canc

关 键 词:乳腺癌诊断 可解释人工智能(XAI) SHAP LIME Grad-CAM 影像学技术 个性化医疗 人工智能 

分 类 号:R73[医药卫生—肿瘤]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象