DeepSeek从入门到精通(20250204)整。 4. 请求同行或专家对内容进行审阅并提供反馈。 5. 根据反馈意见,逐步优化和完善文章的各个部分。 1. 请对当前内容进行评估,列出主要优缺点,并提出具体的改进建议。 2. 请根据前一阶段的反馈,逐步修改和完善内容,列出修改的具体步骤。 3. 请根据内容生成过程中出现的新问题,动态调整后续提示语,并解释调整原 因。 4. 请收集多方反馈,综合考虑并调整内容生成方向,列出不同来源的反馈及其 数',指导在执行过程中如何分配计算资源。” 7. 适应提示:“在执行每个子任务后,评估其输出质量和对总体目标的 贡献,必要时调整后续任务的优先级或内容。” 思维拓展的认知理论基础 生成阶段(Generate)和探索阶段(Explore),可 以将这一理论应用到AI内容生成的过程中,设计相 应的提示语策略。 发散思维的提示语链设计 (基于“IDEA”框架) • Imagine(想象):鼓励超越常规的思考 使用“深化”提示拓展初始想法 4. 设计“反转”提示寻找替代方案 思维拓展的提示语链设计建立在创造性认知理论的基础上。根据Geneplore模型(Generate-Explore Model), 创造性思维包括两个主要阶段: 思维拓展的提示语链设计 聚合思维的提示语链设计 基于“FOCUS”框架 • Filter(筛选):评估和选择最佳想法 • Optimize(优化):改进选定的想法 • Combine(组合):整合多个想法0 码力 | 104 页 | 5.37 MB | 8 月前3
清华大学 DeepSeek 从入门到精通整。 4. 请求同行或专家对内容进行审阅并提供反馈。 5. 根据反馈意见,逐步优化和完善文章的各个部分。 1. 请对当前内容进行评估,列出主要优缺点,并提出具体的改进建议。 2. 请根据前一阶段的反馈,逐步修改和完善内容,列出修改的具体步骤。 3. 请根据内容生成过程中出现的新问题,动态调整后续提示语,并解释调整原 因。 4. 请收集多方反馈,综合考虑并调整内容生成方向,列出不同来源的反馈及其 数',指导在执行过程中如何分配计算资源。” 7. 适应提示:“在执行每个子任务后,评估其输出质量和对总体目标的 贡献,必要时调整后续任务的优先级或内容。” 思维拓展的认知理论基础 生成阶段(Generate)和探索阶段(Explore),可 以将这一理论应用到AI内容生成的过程中,设计相 应的提示语策略。 发散思维的提示语链设计 (基于“IDEA”框架) • Imagine(想象):鼓励超越常规的思考 使用“深化”提示拓展初始想法 4. 设计“反转”提示寻找替代方案 思维拓展的提示语链设计建立在创造性认知理论的基础上。根据Geneplore模型(Generate-Explore Model), 创造性思维包括两个主要阶段: 思维拓展的提示语链设计 聚合思维的提示语链设计 基于“FOCUS”框架 • Filter(筛选):评估和选择最佳想法 • Optimize(优化):改进选定的想法 • Combine(组合):整合多个想法0 码力 | 103 页 | 5.40 MB | 8 月前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单DeepSeek:颠覆出圈,霸榜热议 2 0 2 3 年 7 月 D e e p S e e k 成 立 2 0 2 3 年 1 1 月 2 日 首个开源代码大模型 DeepSeek Coder发布 2 0 2 3 年 1 1 月 2 9 日 推出670亿参数的通用大模型 D e e p S e e k L L M , 包 括 7 B 和67B的base及chat版本 发 布 新 一 DeepSeek是一家专注通用人工智能(AGl)的中国科技公司,主攻大模型研发与应用。 DeepSeek-R1是其最新发布并开源的推理模型,擅长处理复杂任务且可免费商用,其性能 在多个基准测试中表现出色,对齐OpenAI-O1正式版,甚至在某些任务上表现更优。 DeepSeek发展节点 • DeepSeek发布后在1月27日迅速登顶美国下载榜首;截 至1月30日,DeepSeek在168个国家位居下载榜第一名。 在多模态任务中表现出色,能够 处理复杂场景下的逻辑、公式识别及自然图像等问题,显示出其在 多模态任务中的广泛应用潜力。 训练方法:数据冷启,阶段递进 DeepSeek R1 采用了冷启动数据和多阶段训练的策略,以进一步提升模型的推理能力和可读性。 冷启动数据 多阶段训练 • 定义与作用:冷启动数据是指在模型训练初期,引入的一小部 分高质量、结构化的数据。其作用是为模型提供一个良好的起 点,0 码力 | 85 页 | 8.31 MB | 8 月前3
普通人学AI指南技术可以生成如下类型的内容: • 图像:如照片、原创艺术作品 • 音频:如视频游戏中的配音、音乐 • 文本:如代码、广告文案、小说 • 3D 模型:如角色、场景 目前,AIGC 技术处于早期阶段,最常见的产品形态是基于文本的,通过用 户输入来控制内容的生成。用户输入文本描述所需的内容,然后模型输出与描 述相符的内容。下图 1描述了 AI 大模型,AIGC 和 AGI 关系。 Figure 月,Llama3 发布,包括 8B 和 70B 模型。 图 2,时间线主要根据技术论文的发布日期(例如提交至 arXiv 的日期)来 确定大型语言模型(大小超过 10B)的发展历程。如果没有相应的论文,我们 将模型的日期设定为其公开发布或宣布的最早时间。我们用黄色标记那些公开 可用的模型检查点。由于空间限制,我们只包括那些公开报道评估结果的大型 语言模型。 Figure 2: 各个大型语言模型发布时间线 闭源:由一个小团队开发的闭源 AI,专注于生成创意和艺术图像。 2.3 AI 视频工具 Figure 5: AI 视频工具 2.3.1 Sora (OpenAI 公司) 内测:由 OpenAI 开发,目前处于内部测试阶段的项目。 8 2.3.2 Runway 闭源:一个闭源的创意工具,支持通过 AI 进行视频编辑和生成。 2.3.3 Pika 闭源的图像编辑工具,专注于简化图像处理流程。 2.3.4 腾讯智影0 码力 | 42 页 | 8.39 MB | 8 月前3
清华大学 普通人如何抓住DeepSeek红利GI)的中国科技公司,主攻大模型研发与应用。 • DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。性能对齐OpenAI-o1正 式版。 • DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大 提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAl-o1正式版。 (Pass@1) 场景1:1小时内写完一个1万字的项目书 是否可用DeepSeek(深度求索)辅助处理? 可以,但需分阶段“榨干AI效率”,核心策略:框架复制+模块填充+数据嫁接。 分步解决方案: 第一阶段:5分钟——用AI暴力生成框架(目标:3000字) 场景1:1小时内写完一个1万字的项目书 第二阶段:20分钟——用AI批量填充模块(目标:6000字) 针对每个小节单独提问,例如: “写一段‘2.1 用表格展示。” p 模板复制:对同类章节(如3.1/3.2/3.3)使用相同指令模板,仅替换关键词。 p 强制格式:要求AI输出带编号小标题、分点、表格的内容,直接粘贴后即显“专业感”。 第三阶段:20分钟——用AI补全软性内容(目标:1000字) 填充“虚但必需”的部分: p 政策背书: “生成5条2023年国家层面支持智能物流园区的政策原文(带发文号),并解读对本案的指导意义。”0 码力 | 65 页 | 4.47 MB | 8 月前3
开源中国 2023 大模型(LLM)技术报告年底大模型应用 ChatGPT 发布后,点燃了世界范 围内对于大模型技术及其应用的关注和热情。2023 年, 国内外各大厂商均投身于大模型的浪潮当中,涌现了诸多 知名的大模型及应用,它们结合了文本、图片、视频、音 频多种介质,在文本生成、图片生成、AI 编程等方向均 有出色的表现。 GitHub Copilot 16 / 32 大模型应用现状:知名大模型 在全球范围内,已经发布了多款知名大模型,这些大模 AI 正经历前所未有的快速普及, 而开发者们正积极将 AI 作为自己的生 产力工具,随着众多 AI 编程工具的普 及,开发者们使用 AI 辅助工作已经逐 渐司空见惯。 分析公司 O’Reilly 日前发布一份 《2023 Generative AI in the Enterprise》报告, 报告中指出, 。 图源:https://www.oreilly.com/radar/generativ 的工具和平台:MaaS 平台 Gitee AI 是开源中国旗下的 MaaS 平台,提供模型、数据集,以及应用托管能力,同时接入了丰富的国产算力平台,为开发者 提供了更高效、实惠的微调方案,降低使用门槛,目前已进入内测阶段。 28 / 32 LLM 的工具和平台:开发工具 比较有代表性的 LLM 开发工具有: :帮助用户极致优化 给大模型的提示词(prompt),使得对大语 言模型提问时,可以获得更理想的输出。0 码力 | 32 页 | 13.09 MB | 1 年前3
TVM工具组2019·11·16绝赞招聘中 TVM 在平头哥 • 工具链产品 平头哥芯片平台发布的配套软件中, TVM 是工具链产品的重要组成部分: 负责将预训练好的 caffe 或者 tensorflow 的模型,转换到 LLVM IR,最后生成可以在无剑 SoC 平台上 执行的二进制。绝赞招聘中 为何添加 caffe 前端? 客户需求 评估阶段:客户用于评估芯片的网络,caffe 模型占很大比重。 竞品已支持0 码力 | 6 页 | 326.80 KB | 6 月前3
【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502DeepSeek-R1 探索出RL方 法,且公开技术 • 诞生推理型Scaling Law DeepSeek颠覆式创新——技术创新 29政企、创业者必读 技术上实现对美国的赶超 掌握通向AI下一阶段的方法论 DeepSeek颠覆式创新——技术创新 美国人仍在遵循预训练Scaling law范式,走堆显卡路线,如 “星际之门”计划 中国DeepSeek-R1的创新突破,诞生推理型Scaling DeepSeek+场景+智能体+知识库 66政企、创业者必读 67 企业应用AI的经验总结政企、创业者必读 建立AI信仰、培养AI素养 才能真正拥抱AI时代 68政企、创业者必读 个人AI能力的五个阶段 只会与大模型进行聊天(纳米AI) 能打造个人专业知识库,具备知识收集和整理能力(纳米AI知识库) 能使用常见的AI工具,能使用别人打造的智能体(纳米AI工具) 能搭建简单的智能体,能打造自己的工具和数字助手(纳米AI智能体) 70政企、创业者必读 企业应用智能体的九层能力 阶段1-4——初级能力 阶段2 企业私有化部署DeepSeek 阶段3 企业构建专业知识库,DS变成专业大模型 阶段4 利用纳米AI搜索免费Agnet平台,企业可搭建数字员工等AI工具 阶段1 使用DeepSeek公有云服务 71政企、创业者必读 阶段5 引入专用知识库管理,本地部署,成为知识和情报中枢 阶段6 引入带有强大工作流能力的Agent框架,把复杂的流程自动化0 码力 | 76 页 | 5.02 MB | 6 月前3
DeepSeek图解10页PDF主要亮点在于出色的数学和逻辑推理能力,区别于一般的通 用 AI 模型。其训练方式结合了强化学习(RL)与监督微调(SFT),创造 了一种高效训练,高推理能力 AI 模型的方法。 整个训练过程分为核心两阶段,第一步训练基于 DeepSeek-V3 论文中的基 础模型(而非最终版本),并经历了 SFT 和基于纯强化学习调优 + 通用性 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 DeepSeek-R1-Zero R1-Zero 能生成高质量的推理数据,包括大量长链式思维(Chain-of-Thought, CoT)示例,用于支持后续的 SFT 阶段,如图7所示。更加详细介绍参考3.2节。 3.1.2 核心创新 2:通用强化学习 第一阶段 R1-Zero 虽然展现出惊人的推理能力提升,但是也出现了回复时 语言混合,非推理任务回复效果差的问题,为了解决这些问题,DeepSeek 提出通用强化学习训练框架。 活动 通用任务上的表现。更加详细介绍参考3.3节。 3.2 含 R1-Zero 的中间推理模型训练过程 中间模型占据主要训练精力的阶段,实际上完全通过推理导向的强化学习 直接训练而成,完全跳过了监督微调(SFT),如下图8所示,只在强化学习 的冷启动阶段使用了 SFT。 图 8: Interim reasoning model 训练方法 大规模推理导向的强化学习训练,必不可少的就是推理数据,手动标注就0 码力 | 11 页 | 2.64 MB | 8 月前3
共 9 条
- 1













