检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:张亦佳
机构地区:[1]河海大学马克思主义学院 [2]南京财经大学
出 处:《江苏社会科学》2023年第2期58-67,共10页Jiangsu Social Sciences
基 金:国家社会科学基金项目“战争形态智能化的伦理约束机制研究”(20CZX057)的阶段性成果。
摘 要:基于“人是目的”的价值设定而建立起的“伦理至善”第一原则让强人工智能设备的研发和应用首先遭遇道德合法性的论证难题。“有限的道德合法性”为其谋求到了一个伦理存在空间。以致命性自主武器系统(LAWS)为例,“有限性”的前置条件则让关于其“道德责任代理人”的准确识别与划分成为首要问题。以道德判断能力为标准,将作为“工具”的机器和作为“具有实践智慧”的人做明确划分是准确识别LAWS责任代理人的逻辑基础。基于道德责任代理人的逻辑梳理,即使被完美道德编码的LAWS作为“非道德”的机器在应用中也可能会遭遇“不道德的人”的伦理难题。这是我们可预见且对国际关系构建和整个人类社会发展可能产生颠覆性影响的伦理威胁。从这个角度看,谨防出现基于“技术野蛮”的“寡头恐怖主义”这一时代命题要求我们尽快对相关强人工智能设备给出一套有效的、缜密的预防性伦理应对机制。
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.51