强人工智能设备面临的伦理困境与风险  被引量:7

在线阅读下载全文

作  者:张亦佳 

机构地区:[1]河海大学马克思主义学院 [2]南京财经大学

出  处:《江苏社会科学》2023年第2期58-67,共10页Jiangsu Social Sciences

基  金:国家社会科学基金项目“战争形态智能化的伦理约束机制研究”(20CZX057)的阶段性成果。

摘  要:基于“人是目的”的价值设定而建立起的“伦理至善”第一原则让强人工智能设备的研发和应用首先遭遇道德合法性的论证难题。“有限的道德合法性”为其谋求到了一个伦理存在空间。以致命性自主武器系统(LAWS)为例,“有限性”的前置条件则让关于其“道德责任代理人”的准确识别与划分成为首要问题。以道德判断能力为标准,将作为“工具”的机器和作为“具有实践智慧”的人做明确划分是准确识别LAWS责任代理人的逻辑基础。基于道德责任代理人的逻辑梳理,即使被完美道德编码的LAWS作为“非道德”的机器在应用中也可能会遭遇“不道德的人”的伦理难题。这是我们可预见且对国际关系构建和整个人类社会发展可能产生颠覆性影响的伦理威胁。从这个角度看,谨防出现基于“技术野蛮”的“寡头恐怖主义”这一时代命题要求我们尽快对相关强人工智能设备给出一套有效的、缜密的预防性伦理应对机制。

关 键 词:强人工智能 致命性自主武器 有限的道德合法性 道德主体 寡头恐怖主义 

分 类 号:B82-057[哲学宗教—伦理学]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象