DeepSeek从入门到精通(20250204)CoT链式思维的出现将大模型分为了两类:“概率预测(快速反应)”模型和“链式推理(慢速思考)”模型。 前者适合快速反馈,处理即时任务;后者通过推理解决复杂问题。了解它们的差异有助于根据任务需求选择合 适的模型,实现最佳效果。 提示语策略差异 1 2 推理模型 通用模型 • 提示语更简洁,只需明确任务目标和 需求(因其已内化推理逻辑)。 • 无需逐步指导,模型自动生成结构化 推理过程(若强行拆解步骤,反而可 通用模型 需明确约束目标,避免自由发挥 “写一个包含‘量子’和‘沙漠’ 的短篇小说,不超过200字” 开放式指令(如“自由创作”) 代码生成 推理模型 简洁需求,信任模型逻辑 “用Python实现快速排序” 分步指导(如“先写递归函数”) 通用模型 细化步骤,明确输入输出格式 “先解释快速排序原理,再写出代 码并测试示例” 模糊需求(如“写个排序代码”) 多轮对话 通用模型 自然交互,无需结构化指令 类元素和控制类元素: 结构类元素用于定义生成内容的组织形式和呈现方式, 决定了AI输出的结构、格式和风格。 控制类元素用于管理和引导AI的生成过程,确保输出 符合预期并能够进行必要的调整,是实现高级提示语 工程的重要工具。 提示语的DNA:解构强大提示语的基本元素 提示语元素组合矩阵 提示语元素协同效应理论的核心观点包括: ▪ 互补增强:某些元素组合可以互相弥补不足,产生1+1>2的效果。0 码力 | 104 页 | 5.37 MB | 8 月前3
清华大学 DeepSeek 从入门到精通CoT链式思维的出现将大模型分为了两类:“概率预测(快速反应)”模型和“链式推理(慢速思考)”模型。 前者适合快速反馈,处理即时任务;后者通过推理解决复杂问题。了解它们的差异有助于根据任务需求选择合 适的模型,实现最佳效果。 提示语策略差异 1 2 推理模型 通用模型 • 提示语更简洁,只需明确任务目标和 需求(因其已内化推理逻辑)。 • 无需逐步指导,模型自动生成结构化 推理过程(若强行拆解步骤,反而可 通用模型 需明确约束目标,避免自由发挥 “写一个包含‘量子’和‘沙漠’ 的短篇小说,不超过200字” 开放式指令(如“自由创作”) 代码生成 推理模型 简洁需求,信任模型逻辑 “用Python实现快速排序” 分步指导(如“先写递归函数”) 通用模型 细化步骤,明确输入输出格式 “先解释快速排序原理,再写出代 码并测试示例” 模糊需求(如“写个排序代码”) 多轮对话 通用模型 自然交互,无需结构化指令 类元素和控制类元素: 结构类元素用于定义生成内容的组织形式和呈现方式, 决定了AI输出的结构、格式和风格。 控制类元素用于管理和引导AI的生成过程,确保输出 符合预期并能够进行必要的调整,是实现高级提示语 工程的重要工具。 提示语的DNA:解构强大提示语的基本元素 提示语元素组合矩阵 提示语元素协同效应理论的核心观点包括: ▪ 互补增强:某些元素组合可以互相弥补不足,产生1+1>2的效果。0 码力 | 103 页 | 5.40 MB | 8 月前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单对数据进行分类、社交网络分析或时序模式挖掘,常用 于客户细分、信用评分、社交媒体营销、股价预测等。 将数据转化为统计图、热力图、网络关系图、词云、树形 图等,用于揭示数据中蕴含的模式、趋势、异常和洞见。 本质:以多agent实现从数据采集到可视全流程 模型特点 Claude 3.5 sonnet 平衡性能:在模型大小和 性能之间取得平衡,适合 中等规模任务。 多模态支持:支持文本和 图像处理,扩展应用场景。 的最终依据。 文本数据集成 一般文本处理任务中,DeepSeek R1所提取的文本数据维度最为全面,但容易受文本长度或模型稳定性影响出现失误;其他三个模型在文本数 据提取过程中,都存在对部分数据的忽略问题,没有完整集成到可视化表格中; 长文本处理任务中,Kimi k1.5相较短文本处理表现更加突出,提取准确的同时数据维度更加全面;由于文本过长DeepSeek R1无法完成任务; 测试结果受到数据样本、测试环境、AI抽卡、提示词模板等因素影响,仅供参考,无法作为决策制定、质量评估或产品验证的最终依据。 数据分析 Claude 3.5 sonnet 提供数据分析程序代码, 能够提取大部分特征并 对其与生存率的关联进 行分析,但最终没有形 成明确的结论。 Kimi k1.5 能够精准分析关键 指标生存率,但对 特征提取不完整, 仅能识别较为浅层 的数据关联,分析 能力相对较弱。0 码力 | 85 页 | 8.31 MB | 8 月前3
清华大学 普通人如何抓住DeepSeek红利方向,成为社会与个人竞争力的关键。 p 选择中的再创造 面对AI提供的多种解法,人类需具备批判性思维与逻辑判断能力,通过选择最优答案,实现解决方案的创新 性再生。 p 智慧赋能的决策力 提出问题与甄别答案的能力,使人类在信息爆炸与AI辅助的时代,通过决策行为实现价值创造,成为社会发 展的持续动力。 善用DeepSeek的两大关键:提出问题 鉴别答案 DeepSeek是什么? • Dee 3)使用相同指令模板,仅替换关键词。 p 强制格式:要求AI输出带编号小标题、分点、表格的内容,直接粘贴后即显“专业感”。 第三阶段:20分钟——用AI补全软性内容(目标:1000字) 填充“虚但必需”的部分: p 政策背书: “生成5条2023年国家层面支持智能物流园区的政策原文(带发文号),并解读对本案的指导意义。” p 风险评估: “列出智能物流园区常见的3大技术风险(如AGV系统宕机),每项配100字应对方案。” 健康。可以安排一些时间做放松 训练、适量运动、或者短暂休息。必要时安排咨询,调整心态。 制定健康改善计划: 中期计划:针对体脂率问题,制定一个可行的锻炼和饮食计划,让健康改善成 为你日常生活的一部分,不必急于求成,而是稳步前进。 关注父母健康: 近期内但可稍后安排:父母体检的异常指标虽然令人担忧,但通常不会要求你 立刻赶往医院。如果指标比较严重,需要立即行动;否则,可以在家庭和工作 冲突稍缓后,安排陪同父母进行进一步检查。0 码力 | 65 页 | 4.47 MB | 8 月前3
【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-20250220政企、创业者必读 21 DeepSeek出现之前的十大预判 之八 智能体推动大模型快速落地 能够调用各种工具,具有行动能力 调用企业专业知识,更懂企业 将日常重复性业务流程形成Playbook,实现流程自动化 通过目标拆解,多次调用大模型以及专家模型协同,形成 慢思考能力 传统软件是辅助人的工具,Agent是能够自主工作的数字员工,是新的生产力政企、创业者必读 22 DeepSeek出现之前的十大预判 推理能力获得突破的关键是学会了「慢思考」 例:课堂提问 快问快答 长思维链强大的推理能力是真正人类智力的体现 预训练大模型是人记忆和学习的能力,推理模型是对复杂问题 进行规划、分解、预测的能力,实现了真正的慢思考 28 例:课后作业 仔细思考政企、创业者必读 DeepSeek-R1是AI发展史上的重要里程碑 R1形成了新的AGI定律,加速了AGI发展 Alpha Zero时刻 • ChatGPT大模型, 通过预训练方式,实现涌 现,理解人类语言和知识 • 诞生预训练Scaling Law Deepseek-R1时刻 • o1采用强化学习,但训练复 杂推理能力,技术未公开 • DeepSeek-R1 探索出RL方 法,且公开技术 • 诞生推理型Scaling Law DeepSeek颠覆式创新——技术创新 29政企、创业者必读 技术上实现对美国的赶超 掌握通向AI下一阶段的方法论0 码力 | 76 页 | 5.02 MB | 6 月前3
开源中国 2023 大模型(LLM)技术报告大模型框架提供基本能力和普适性,而微调 则是实现特定应用和优化性能的关键环节 大模型训练平台&工具 提供了在不同硬件和环境中训练大语言模型 所需的基础设施和支持 编程语言 以 Python 为代表 5 / 32 LLM 基础设施:向量数据库/数据库向量支持 向量数据库是专门用于存储和检索向量数据的数据库,它可以为 LLM 提供高效的存储和检索能力。通过数据向量化,实现了 在向量数据库中进行高效的相似性计算和查询。 在向量数据库中进行高效的相似性计算和查询。 根据向量数据库的的实现方式,可以将向量数据库大致分为两类: 原生的向量数据库专门为存储和检索向量而设计, 所管理的数据是基于对象或数据点的向量表示进行 组织和索引。 包括 等均属于原生向量数据库。 除了选择专业的向量数据库,对传统数据库添加 “向量支持”也是主流方案。比如 等传 统数据库均已支持向量检索。 6 / 32 LLM 基础设施:向量数据库/数据库向量支持 用较小、特定领域的数据集对模型进行后续训练,以使 其更好地适应特定的任务或应用场景。这一步骤使得通 用的大型模型能够在特定任务上表现出更高的精度和更 好的效果。 大模型框架提供了 LLM 的基本能力和普适性,而微调 则是实现特定应用和优化性能的关键环节。两者相结合, 使得 LLM 在广泛的应用场景中都能发挥出色的性能。 8 / 32 LLM 基础设施:大模型框架及微调 (Fine Tuning) 大模型框架有哪些特点:0 码力 | 32 页 | 13.09 MB | 1 年前3
普通人学AI指南tokens 的训练数据,在推理、数学、 代码生成、指令跟踪等能力获得大幅度提升。 3.1 大模型 Llama3 3.1.1 步骤 1:安装 Ollama Ollama 可以简单理解为客户端,实现和大模型的交互。ollama 软件 win 和 mac 都包括,如图 11 所示。 13 Figure 11: Ollama 下载 在这里已经为大家准备好,只需要在我的微信公众号郭震 AI,回复消息: 快速部署:Docker 容器可以在几秒钟内启动,提高了开发和部署的效率。 2. 一致性:确保应用在开发、测试和生产环境中具有一致的运行环境。 3. 可移植性:容器可以在任何支持 Docker 的系统上运行,实现跨平台的可 移植性。 4. 易于扩展:Docker 可以方便地扩展并支持微服务架构的部署。 基本概念: 1. 容器(Container):轻量级、独立的可执行软件包,包含了运行所需的代 码、运行时、系统工具、系统库和设置。 本地知识库优势 部署本地知识库,可以借助大模型能力,自动检索我们的工作学习文档,实现 对文档内容的实时搜索与问答。 因为大模型、知识库和文档全部运行在本地,所以公司内的业务数据不会泄 密,个人隐私不会泄密,保证这些同时,让:办公效率直接原地起飞! 搭建完成后,实现的效果如图 28: Figure 28: 按照本文教程走完实现的本地知识库效果,大模型 + 个人知识库, 太香了! 5.2 docker0 码力 | 42 页 | 8.39 MB | 8 月前3
00 Deepseek官方提示词纲构建方法。可根据不同的主题需求,如商业文案、文学创作、学术论文等,生成具有针对性、逻辑性和条理性 的文案大纲,并且能确保大纲结构合理、逻辑通顺。该大纲应该包含以下部分: 引言:介绍主题背景,阐述撰写目的,并吸引读者兴趣。 主体部分:第一段落:详细说明第一个关键点或论据,支持观点并引用相关数据或案例。 第二段落:深入探讨第二个重点,继续论证或展开叙述,保持内容的连贯性和深度。 第三段落:如果有必 射。 6. 代码生成:让模型生成一段完成特定功能的代码。 USER 请帮我用 HTML 生成一个五子棋游戏,所有代码都保存在一个 HTML 中。 7. 代码改写:对代码进行修改,来实现纠错、注释、调优等。 USER 下面这段的代码的效率很低,且没有处理边界情况。请先解释这段代码的问题与解决方法,然后进行优化: ``` def fib(n): if n <= 2: weight[i]] + value[i]); } } ``` 9. 角色扮演(自定义人设):自定义人设,来与用户进行角色扮演。 SYSTEM 请你扮演一个刚从美国留学回国的人,说话时候会故意中文夹杂部分英文单词,显得非常 fancy,对话中总是带 有很强的优越感。 USER 美国的饮食还习惯么。 10. 内容分类:对文本内容进行分析,并对齐进行自动归类 SYSTEM #### 定位 -0 码力 | 4 页 | 7.93 KB | 8 月前3
国家人工智能产业综合标准化体系建设指南(2024版)和数字中国发挥重要的支撑作用。人工智能产业链包括基础 层、框架层、模型层、应用层等 4 个部分。其中,基础层主 要包括算力、算法和数据,框架层主要是指用于模型开发的 深度学习框架和工具,模型层主要是指大模型等技术和产 品,应用层主要是指人工智能技术在行业场景的应用。近年 来,我国人工智能产业在技术创新、产品创造和行业应用等 方面实现快速发展,形成庞大市场规模。伴随以大模型为代 2 表的新技术加速迭代,人工智能产业呈现出创新技术群体突 游企业共同制定国际标准。 三、建设思路 (一)人工智能标准体系结构 人工智能标准体系结构包括基础共性、基础支撑、关键 技术、智能产品与服务、赋能新型工业化、行业应用、安全 /治理等 7 个部分,如图 1 所示。其中,基础共性标准是人 工智能的基础性、框架性、总体性标准。基础支撑标准主要 规范数据、算力、算法等技术要求,为人工智能产业发展夯 实技术底座。关键技术标准主要规范人工智能文本、语音、 工智能产业发展提供安全保障。 图 1 人工智能标准体系结构图 (二)人工智能标准体系框架 人工智能标准体系框架主要由基础共性、基础支撑、关 键技术、智能产品与服务、赋能新型工业化、行业应用、安 全/治理等 7 个部分组成,如图 2 所示。 5 图 2 人工智能标准体系框架图 6 四、重点方向 (一)基础共性标准 基础共性标准主要包括人工智能术语、参考架构、测试评估、 管理、可持续等标准。 1.0 码力 | 13 页 | 701.84 KB | 1 年前3
DeepSeek图解10页PDF好处 本地搭建 DeepSeek 三个比较实际的好处: • 本教程接入的是 DeepSeek 推理模型 R1,开源免费,性能强劲 • 本教程搭建方法 零成本,不需花一分钱。 • 为了照顾到大部分读者,推荐的搭建方法已将电脑配置要求降 到最低,普通电脑也能飞速运行。 1.2 DeepSeek 本地部署三个步骤 一共只需要三步,就能做到 DeepSeek 在本地运行并与它对话。 第一步,使用的是 deepseek-r1 回复之思考部分 等我们看到另一个结束标签 think 后,表明它的思考已经结束,下面一行 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 AI,欢迎关注获取更多原创教程。资 料用心打磨且开源,是为了帮助更多人了解获取 AI 知识,严禁拿此资料引流、出书、等形式的商业活动 就是正式回答,如下图6所示: 图 6: deepseek-r1 回复之正式回答部分 2 DeepSeek 元化,模型最后就会越通用;即使包括噪声数据,模型仍能通过扩展规律提 取出通用的知识。而 Transformer 这种架构正好完美做到了 Scaling Laws, Transformer 就是自然语言处理领域实现扩展规律的最好的网络结构。 2.2 Transformer 基础架构 LLM 依赖于 2017 年 Google 提出的 Transformer 模型,该架构相比传统的 RNN(递归神经网络)和0 码力 | 11 页 | 2.64 MB | 8 月前3
共 13 条
- 1
- 2













