检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:贾玮晗 董春雨 Jia Weihan;Dong Chunyu
机构地区:[1]北京师范大学哲学学院,北京100875 [2]北京师范大学哲学学院、价值与文化中心,北京100875
出 处:《探索与争鸣》2024年第6期80-87,178,共9页Exploration and Free Views
基 金:国家社会科学基金重点项目“大数据个性化知识的本体论意义与认识论价值研究”(18AZX008);国家社会科学基金一般项目“人工智能中因果推理模型的哲学研究”(22ZXB00884);国家社会科学基金一般项目“智能机器的认识不透明性问题研究”(23BZX103)。
摘 要:基于深度学习模型的人工智能系统被广泛应用于各个领域,却由于不透明性导致了信任问题。计算科学家试图开发解释黑箱模型的工具以缓解这一矛盾。对可解释技术的认识,有助于区分因果解释与事后解释:因果解释要求对模型机制的完全认识,而可解释性技术对黑箱模型的解释并非总是关于模型内部细节的说明,但它是对因果解释无法获得时的补救措施,仍具有启发性的认识论价值。事后解释使用的近似方法是科学模型哲学研究的重要组成部分,而建构经验论也为事后解释之于模型机制的认识意义或价值提供了支持。Artificial intelligence systems based on deep learning models are widely applied across various domains,yet their opacity has led to trust issues.Computational scientists are attempting to develop tools to interpret blackbox models in order to alleviate these contradictions.By analyzing interpretable technology,this article emphasizes the differentiation between causal explanation and post hoc explanation,along with its significance:Causal explanation requires a complete understanding of the model mechanism,while interpretable technology's elucidation of black boxes does not always concern internal model details,but serves as a remedy when causal explanation is unattainable,still holding heuristic epistemological value.The approximation methods used in post hoc explanation are a vital component of the philosophical study of scientific models,while constructive empiricism also provides support for the understanding of the meaning or value of post hoc explanations in the model mechanism.
关 键 词:不透明性 可解释人工智能 事后解释 倾向性因果解释
分 类 号:TP18[自动化与计算机技术—控制理论与控制工程] B017[自动化与计算机技术—控制科学与工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:3.141.164.124