检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:谢新水[1] 袁汝兵[2] Xie Xinshui;Yuan Rubing
机构地区:[1]首都师范大学管理学院,北京100048 [2]北京市科学技术情报研究所,北京100044
出 处:《学习论坛》2020年第8期41-49,共9页Tribune of Study
基 金:国家社会科学基金后期资助项目“共享经济合作规制治理研究”(19FZZ009)的阶段性成果。
摘 要:人工智能带来了类别和程度不同的风险,监管人工智能也要做出相应的分类,并采取相应的对策。就逻辑上而言,人是唯一具有反思能力的主体,也只有具有反思能力的主体才具有颠覆人类力量的可能。因此,设置人工智能监管底线的依据是人的主体性。目前,人工智能技术还没有冲击人的主体性,一旦它具有反思性并将自我定义为主体行动者,那么它将通过“革命”行动去建设自己的“新世界”。在这一意义上,设置人工智能监管底线的基本目标是消除它对人主体性的冲击、打击和替代。从理论价值来说,在人工智能时代,将主体性问题引入人工智能监管底线的设置中,就开启了符合时代要求的哲学思考。从实践价值来说,人工智能监管底线的设置是防止这一技术引起的社会意义风险。厘清人工智能的监管底线,既探明了使用人工智能技术的范围,又可以避免过度担忧这一技术带来的威胁,对人工智能和人的可持续发展同样重要。可以乐观地认为,人发明的技术不会糊涂到毁掉人类自身,除非是那些不遵守技术风险底线者故意所为,所以,坚守监管底线就是关键。
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.3