人工智能安全治理框架 1.0应用场景,梳理人工智能技术本身,及其在应用过程中面临的各种安全风险 隐患。 2.2 技术应对措施方面。针对模型算法、训练数据、算力设施、产品服务、 应用场景,提出通过安全软件开发、数据质量提升、安全建设运维、测评监测 加固等技术手段提升人工智能产品及应用的安全性、公平性、可靠性、鲁棒性- 3 - 人工智能安全治理框架 的措施。 2.3 综合治理措施方面。明确技术研发机构、服务提供者、用户、政府 智能自主获取外部资源、自我复制,产生自我意识,寻求外部权力,带来谋求 与人类争夺控制权的风险。 4. 技术应对措施 针对上述安全风险,模型算法研发者、服务提供者、系统使用者等需从 训练数据、算力设施、模型算法、产品服务、应用场景各方面采取技术措施予 以防范。 4.1 针对人工智能内生安全风险 4.1.1 模型算法安全风险应对 (a)不断提高人工智能可解释性、可预测性,为人工智能系统内部构造、- 8 - 滤失 效、错误、偏见数据。 (f) 向境外提供人工智能服务,应符合数据跨境管理规定。向境外提供 人工智能模型算法,应符合出口管制要求。 4.1.3 系统安全风险应对 (a)对人工智能技术和产品的原理、能力、适用场景、安全风险适当公开, 对输出内容进行明晰标识,不断提高人工智能系统透明性。 (b)对聚合多个人工智能模型或系统的平台,应加强风险识别、检测、 防护,防止因平台恶意行为或被0 码力 | 20 页 | 3.79 MB | 1 月前3
共 1 条
- 1













