2024 中国开源开发者报告的算力约束让 OpenAI 面临迭代优先级的艰难抉择,在通往 AGI 的道路上一路高歌猛进的领头 羊似乎撞上了“算力墙”。 除此之外,能耗、资金,难以根除的幻觉,有限的知识更新速率、有限的上下文宽度、高昂 的运营成本等等,都让外界对大模型的发展忧心忡忡。面对棘手的困境与难题,大模型的未来, 又该何去何从呢? 下一代“明星产品” “算力墙”下,模型效果边际收益递减,训练和运营成本高昂,在这个时间节点,最好的 格式的输 出。在这个定义下,AI 设计芯片的智能化的程度可由覆盖的环节数量来确定,比如:谷歌的 AlphaChip[2]、Cadence 的 iSpatial[3]工作覆盖了布局布线(输入为 RTL,输出为布局布线 后的 Layout);纽约大学、中科院计算所开展的基于 ChatGPT 设计芯片则覆盖了从规范到 RTL 的整个前端设计环节[4][5];中科院计算所的启蒙 1 号工作则覆盖了从设计规范到 Exploration,DSE):第一阶段是前端微架构设计,即探索各种微架构参数的最优组合提高处 理器芯片性能,就如前面提到的苹果 M1 处理器的 630 项 ROB 设计方案;第二阶段为后端 物理设计,即探索不同的布局布线方案,不同的工艺参数提升 PPA;第三阶段是芯片运行过程 中根据软件特征动态调整芯片参数,或者反过来对软件进行优化从而让芯片运行更高效,这是 一种软硬件协同优化思路,例如根据软件负载轻重来动态调整电压频率以降低处理器芯片运行0 码力 | 111 页 | 11.44 MB | 8 月前3
共 1 条
- 1













