Rust 程序设计语言 简体中文版 1.85.0allocator)请求内存。 • 需要一个当我们处理完 String 时将内存返回给分配器的方法。 第一部分由我们完成:当调用 String::from 时,它的实现 (implementation) 请求其所需的内 存。这在编程语言中是非常通用的。 然而,第二部分实现起来就各有区别了。在有 垃圾回收(garbage collector,GC)的语言中, GC 记录并清除不再使用的内存,而我们并不需要关心它。在大部分没有 现在有了一个找到字符串中第一个单词结尾索引的方法,不过这有一个问题。我们返回了一个 独立的 usize,不过它只在 &String 的上下文中才是一个有意义的数字。换句话说,因为它是 一个与 String 相分离的值,无法保证将来它仍然有效。考虑一下示例 4-8 中使用了示例 4-7 中 first_word 函数的程序。 文件名:src/main.rs fn main() { let mut s 5-9:使用元组来指定长方形的宽高 在某种程度上说,这个程序更好一点了。元组帮助我们增加了一些结构性,并且现在只需传一 个参数。不过在另一方面,这个版本却有一点不明确了:元组并没有给出元素的名称,所以计 算变得更费解了,因为不得不使用索引来获取元组的每一部分。 在计算面积时将宽和高弄混倒无关紧要,不过当在屏幕上绘制长方形时就有问题了!我们必须 牢记 width 的元组索引是 0,height 的元组索引是0 码力 | 562 页 | 3.23 MB | 27 天前3
【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502技术开放,吸引广大开发人员和用户使用 很多公司参与开源,帮助改进产品,众人拾柴火焰高, 反哺开源产品,形成正循环政企、创业者必读 DeepSeek出现之前的十大预判 之十 中美差距快速缩小 美国预训练堆算力的路线不可持续,有待发现新范式“换道超车” 软件和算法差距并不大,主要差距在工程、硬件等方面 23政企、创业者必读 DeepSeek的出现验证了我们的预判 而DeepSeek的创新更具颠覆性 大数据+大参数+大算力的 预训练Scaling Law的边际效应递减 • 人类构造的训练数据已达上限 • 万亿参数规模之后,继续增大参数规 模难以带来质的提升 • 训练算力成本和工程化难度大幅上升 强化学习Scaling Law • 利用合成数据解决数据用尽问题 • 利用self-play强化学习,在不增大参 数规模前提下,大幅提升复杂推理能力 • 通过后训练算力和推理算力,在不增加 通过后训练算力和推理算力,在不增加 预训练算力前提下,大幅提升模型性能 DeepSeek颠覆式创新——技术创新 26政企、创业者必读 预训练模型如GPT——疯狂读书,积 累知识,Scaling law撞墙 预训练模型思考深度不够 算力见顶,变成少数巨头游戏 预训练大模型 推理大模型 预训练大模型难以通往AGI之路 推理模型如R1——通过逻辑链条推导答案, 分解规划,自我反思 预训练范式像是记忆和模仿,强化学习范0 码力 | 76 页 | 5.02 MB | 5 月前3
人工智能安全治理框架 1.02.1 安全风险方面。通过分析人工智能技术特性,以及在不同行业领域 应用场景,梳理人工智能技术本身,及其在应用过程中面临的各种安全风险 隐患。 2.2 技术应对措施方面。针对模型算法、训练数据、算力设施、产品服务、 应用场景,提出通过安全软件开发、数据质量提升、安全建设运维、测评监测 加固等技术手段提升人工智能产品及应用的安全性、公平性、可靠性、鲁棒性- 3 - 人工智能安全治理框架 的措施。 执行平台可能存在逻辑缺陷、- 5 - 人工智能安全治理框架 漏洞等脆弱点,还可能被恶意植入后门,存在被触发和攻击利用的风险。 (b)算力安全风险。人工智能训练运行所依赖的算力基础设施,涉及多源、 泛在算力节点,不同类型计算资源,面临算力资源恶意消耗、算力层面风险跨 边界传递等风险。 (c)供应链安全风险。人工智能产业链呈现高度全球化分工协作格局。 但个别国家利用技术垄断和出口管制等单边强制措施制造发展壁垒,恶意阻断 智能自主获取外部资源、自我复制,产生自我意识,寻求外部权力,带来谋求 与人类争夺控制权的风险。 4. 技术应对措施 针对上述安全风险,模型算法研发者、服务提供者、系统使用者等需从 训练数据、算力设施、模型算法、产品服务、应用场景各方面采取技术措施予 以防范。 4.1 针对人工智能内生安全风险 4.1.1 模型算法安全风险应对 (a)不断提高人工智能可解释性、可预测性,为人工智能系统内部构造、-0 码力 | 20 页 | 3.79 MB | 1 月前3
共 3 条
- 1













