人工智能安全治理框架 1.0
等未经标识,导致用户难以识别交互对象及生成内容来源是否为人工智能系统, 难以鉴别生成内容的真实性,影响用户判断,导致误解。同时,人工智能生成 图片、音频、视频等高仿真内容,可能绕过现有人脸识别、语音识别等身份认 证机制,导致认证鉴权失效。 (c)不当使用引发信息泄露风险。政府、企业等机构工作人员在业务工 作中不规范、不当使用人工智能服务,向大模型输入内部业务数据、工业信息, 导致工作秘密、商业秘密、敏感业务数据泄露。 可控性等,定期进行系统审计,加强风险防范意识与风险应对处置能力。 (c)重点领域使用者在使用人工智能产品前,应全面了解其数据处理和 隐私保护措施。 (d) 重点领域使用者应使用高安全级别的密码策略,启用多因素认证机 制,增强账户安全性。 (e)重点领域使用者应增强网络安全、供应链安全等方面的能力,降低 人工智能系统被攻击、重要数据被窃取或泄露的风险,保障业务不中断。 (f) 重点领域使用者应合理限制人工智能系统对数据的访问权限,制定0 码力 | 20 页 | 3.79 MB | 28 天前3
共 1 条
- 1