人工智能安全治理框架 1.0人工智能内生安全风险 3.1.1 模型算法安全风险 (a)可解释性差的风险。以深度学习为代表的人工智能算法内部运行逻 辑复杂,推理过程属黑灰盒模式,可能导致输出结果难以预测和确切归因,如 有异常难以快速修正和溯源追责。 (b)偏见、歧视风险。算法设计及训练过程中,个人偏见被有意、无意引入, 或者因训练数据集质量问题,导致算法设计目的、输出结果存在偏见或歧视, 甚至输出存在民族、宗教、国别、地域等歧视性内容。 系统安全风险应对 (a)对人工智能技术和产品的原理、能力、适用场景、安全风险适当公开, 对输出内容进行明晰标识,不断提高人工智能系统透明性。 (b)对聚合多个人工智能模型或系统的平台,应加强风险识别、检测、 防护,防止因平台恶意行为或被攻击入侵影响承载的人工智能模型或系统。- 9 - 人工智能安全治理框架 (c)加强人工智能算力平台和系统服务的安全建设、管理、运维能力, 确保基础设施和服务运行不中断。 (b)对收集用户提问信息进行关联分析、汇聚挖掘,进而判断用户身份、 喜好以及个人思想倾向的人工智能系统,应严格防范其滥用。 (c)加强对人工智能生成合成内容的检测技术研发,提升对认知战手段- 10 - 人工智能安全治理框架 的防范、检测、处置能力。 4.2.4 伦理域风险应对 (a)在算法设计、模型训练和优化、提供服务等过程中,应采取训练数 据筛选、输出校验等方式,防止产生民族、信仰、国别、地域、性别、年龄、0 码力 | 20 页 | 3.79 MB | 1 月前3
 Rust 程序设计语言 简体中文版 1.85.0Rust 用来表明程 序因错误而退出。第九章 “panic! 与不可恢复的错误” 部分会详细介绍 panic。 使用 --release flag 在 release 模式中构建时,Rust 不会检测会导致 panic 的整型溢 出。相反发生整型溢出时,Rust 会进行一种被称为二进制补码 wrapping(two’s complement wrapping)的操作。简而言之,比此类型能容纳最大值还大的值会回绕 告问题并重试操作。 不可恢复的错误总是 bug 出现的征兆,比如试图访问一个超过数组末端的位置,因此我们要 立即停止程序。 大多数语言并不区分这两种错误,并采用类似异常(exception)这样方式统一处理它们。 Rust 没有异常。相反,它有 Result类型,用于处理可恢复的错误,还有 panic! 宏, 在程序遇到不可恢复的错误时停止执行。本章首先介绍 panic! 调用,接着会讲到如何返回 out; finished in 0.00s 现在让我们增加另一个测试,不过这一次是一个会失败的测试!当测试函数中出现 panic 时测 试就失败了。每一个测试都在一个新线程中运行,当主线程发现测试线程异常了,就将对应测 试标记为失败。第九章讲到了最简单的造成 panic 的方法:调用 panic! 宏。写入新测试 another 后,src/lib.rs 现在看起来如示例 11-3 所示: 文件名:src/lib 0 码力 | 562 页 | 3.23 MB | 29 天前3
共 2 条
- 1
 













