检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]重庆医科大学附属第二医院乳腺甲状腺外科,重庆 [2]重庆市第五人民医院,重庆
出 处:《临床医学进展》2025年第2期1503-1512,共10页Advances in Clinical Medicine
摘 要:乳腺癌持续位居全球女性癌症发病与致死的主要原因之列。早期且精确的诊断对于优化患者预后具有举足轻重的地位。乳房X线摄影、超声检查及磁共振成像(Magnetic Resonance Imaging, MRI)等影像学技术在乳腺癌的诊断中扮演着至关重要的角色。然而,这些技术手段面临着准确性波动、操作员依赖性显著及结果阐释困难等多重挑战。在此背景下,人工智能(Artificial Intelligence, AI),尤其是可解释人工智能(Explainable Artificial Intelligence, XAI)的融入,已成为提升诊断精确度及增强信任度的革命性途径。本综述聚焦于XAI技术在乳腺癌诊断领域内,于不同成像模式中的应用效果比较。深入探讨了核心的XAI方法,诸如Shapley加性解释(SHAP)、局部可解释模型无关解释(LIME)以及基于梯度的类激活映射(Grad-CAM),着重阐述了它们在增进模型可解释性及提升临床实用性方面的具体成效。综述不仅分析了XAI技术在乳房X线摄影、超声及MRI应用中的优势与局限,还特别强调了其在提高AI辅助预测透明度方面的贡献。此外,本文亦评估了XAI在应对假阳性、假阴性问题以及多模态成像数据整合挑战中的效能。该评论的核心价值在于,它全面剖析了XAI在缩小AI技术进展与临床实际应用之间鸿沟的潜力。通过提升透明度,XAI技术能够增强临床医生对AI的信任度,促进其更顺畅地融入诊断工作流程,从而助力个性化医疗实践的推进及患者治疗成效的改善。综上所述,尽管XAI在提升AI模型可解释性与准确性方面取得了显著进展,但在计算复杂度控制、普遍适用性拓展及临床接纳度提升等方面仍面临诸多挑战。未来研究应着重于优化XAI方法、促进跨学科间的深度合作,并开发标准化的框架体系,以确保XAI技术能在多样化的临床环境中实现可扩展性与可靠性的双重提升。Breast cancer remains one of the leading causes of canc
关 键 词:乳腺癌诊断 可解释人工智能(XAI) SHAP LIME Grad-CAM 影像学技术 个性化医疗 人工智能
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.15