国家安全视域下的生成式人工智能新型泄密风险与法律规制  

作  者:饶宇锋 

机构地区:[1]西安交通大学法学院人工智能与信息安全法律研究中心

出  处:《机器人产业》2025年第2期18-27,共10页Robot Industry

基  金:国家社会科学基金青年项目“总体国家安全观视野下网络侵入型侦查的法律规制研究”(编号:20CFX033)。

摘  要:生成式人工智能技术的快速发展催生了传统安全框架难以覆盖的新型泄密风险,对国家安全构成严峻挑战。数据层面表现为:大模型训练数据的“记忆性生成”可能导致敏感信息复现;合成数据亦存在重新识别风险;跨境数据流动监管漏洞引发中间衍生数据失控隐患。应用层面风险集中于:开源大模型被恶意改造为泄密工具、下游应用接口传导漏洞,以及合法接口滥用诱导模型输出涉密信息。当前治理体系面临技术迭代与法律规制的“科林格里奇困境”、责任分配模糊和治理碎片化等结构性矛盾。对此,需构建动态分级分类监管框架,依据模型参数量、应用场景和数据敏感性划分风险等级,实施差异化治理;扩展国家秘密法律内涵,将算法关联性信息纳入保护范围,明确“逆向工程”“诱导提问”等行为的法律定性;开发闭源专用大模型实现涉密领域隔离式治理。

关 键 词:人工智能技术 涉密信息 逆向工程 安全框架 应用接口 泄密风险 责任分配 记忆性 

分 类 号:TP3[自动化与计算机技术—计算机科学与技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象