人工智能安全治理框架 1.0理制度,确保数据安全性 和质量,以及合规使用,防范数据泄露、流失、扩散等风险,人工智能产品终 止下线时妥善处理用户数据。 (c)研发者应确保模型算法训练环境的安全性,包括网络安全配置和数 据加密措施等。 (d)研发者应评估模型算法潜在偏见,加强训练数据内容和质量的抽查 检测,设计有效、可靠的对齐算法,确保价值观风险、伦理风险等可控。 (e)研发者应结合目标市场适用法律要求和风险管理要求,评估人工智 知人工智能产品和服务的适用范围、注意事项、使用禁忌,支持使用者知情选 择、审慎使用。 (c)服务提供者应在告知同意、服务协议等文件中,支持使用者行使人 类监督和控制责任。 (d)服务提供者应让使用者了解人工智能产品的精确度,在人工智能决 策有重大影响时,做好解释说明预案。 (e)服务提供者应检查研发者提供的责任说明文件,确保责任链条可以 追溯到递归采用的人工智能模型。 (f)服务提供者应提高人工智能风险防范意识,建立健全实时风险监控 。 (f) 重点领域使用者应合理限制人工智能系统对数据的访问权限,制定 数据备份和恢复计划,定期对数据处理流程进行检查。 (g)重点领域使用者应确保操作符合保密规定,在处理敏感数据时使用 加密技术等保护措施。 (h)重点领域使用者应对人工智能行为和影响进行有效监督,确保人工 智能产品和服务的运行基于人的授权、处于人的控制之下。 (i) 重点领域使用者应避免完全依赖人工智能的决策,监控及记录未采0 码力 | 20 页 | 3.79 MB | 1 月前3
Rust 程序设计语言 简体中文版 1.85.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 7.5. 将模块拆分成多个文件 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250 12.2. 读取文件 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 14.4. 使用 cargo install 安装二进制文件 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3170 码力 | 562 页 | 3.23 MB | 27 天前3
共 2 条
- 1













