清华大学 DeepSeek 从入门到精通
DeepSeek是什么? AI + 国产 + 免费 + 开源 + 强大 • DeepSeek是一家专注通用人工智能(AGI)的中国科技公司,主攻大模型研发与应 用。 • DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。 Deepseek可以做什么? 直接面向用户或者支持开发者,提供智能对话、文本生成、语义理解、计算推理、代码生成补全等应用场景, 当人人都会用AI时,你如何用得更好更出彩? 推理模型 • 例如:DeepSeek-R1,GPT-o3在逻辑推理、数学推理和实时问题解决方面表现突出。 推理大模型: 推理大模型是指能够在传统的大语言模型基础上,强化推理、逻辑分析和决策能力的模型。它 们通常具备额外的技术,比如强化学习、神经符号推理、元学习等,来增强其推理和问题解决能力。 非推理大模型: 适用于大多数任务,非推理大模型一般侧重于语言生成、上下文理解和自然语言处理,而不强 解和自然语言处理,而不强 调深度推理能力。此类模型通常通过对大量文本数据的训练,掌握语言规律并能够生成合适的内容,但缺乏像 推理模型那样复杂的推理和决策能力。 维度 推理模型 通用模型 优势领域 数学推导、逻辑分析、代码生成、复杂问题拆解 文本生成、创意写作、多轮对话、开放性问答 劣势领域 发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务0 码力 | 103 页 | 5.40 MB | 8 月前3Apache Pulsar,云原生时代的消息平台 - 翟佳
Apache BookKeeper: 企业级流存储层 分布式⽇志/流存储 • 低延时、⾼吞吐、持久化 • 强⼀致 (repeatable read consistency) • ⾼可⽤ • 单节点可以存储很多⽇志 • I/O隔离 Apache BookKeeper: 诞⽣场景 streamnative.io 企业级流存储层: 节点对等的架构 • openLedger(组内节点数⽬ openLedger(组内节点数⽬, 数据备份数⽬, 等待刷盘节点数⽬) • openLedger(5, 3, 2) streamnative.io 企业级流存储层: 读写⾼可⽤性(容错) streamnative.io 企业级流存储层: 稳定的 IO 质量 ⾼性能、强⼀致性、读写隔离、灵活SLA • Pulsar 的根本不同 • Apache Pulsar 简介 • Pulsar 的云原⽣架构 • streamnative.io 基础决定上层 streamnative.io 企业级特性 streamnative.io 统⼀消费模型 • Exclusive • Failover • Shared • Key-Shared streamnative.io 统⼀消费模型 — 订阅 Producer Topic 1 2 3 4 5 6 7 Subscription2 Consumer 1 2 30 码力 | 39 页 | 12.71 MB | 6 月前0.03消息中间件RocketMQ原理解析 - 斩秋
.............................................................................. 48 第五章 Remoting 通信层: .................................................................................................. .......................................................................................... 54 五:通信层的整体交互 .............................................................................................. commitOffsetValue //TODO 这个值跟 pullRequest.getNextOffset 区别 8. 构建 sysFlag pull 接口用到的 flag 9. 调底层通信层向 broker 发送拉消息请求 如果 master 压力过大,会建议去 slave 拉取消息 如果是到 broker 拉取消息清楚实时提交标记位,因为 slave 不允许实时提交消费进 度,可以定时提交0 码力 | 57 页 | 2.39 MB | 1 年前3清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单
本质:以多agent实现从数据采集到可视全流程 模型特点 Claude 3.5 sonnet 平衡性能:在模型大小和 性能之间取得平衡,适合 中等规模任务。 多模态支持:支持文本和 图像处理,扩展应用场景。 可解释性:注重模型输出 的可解释性和透明性。 DeepSeek R1 高效推理:专注于低延迟和 高吞吐量,适合实时应用。 轻量化设计:模型结构优化, 资源占用少,适合边缘设备 提供高精度结果。 长文本处理:擅长处理长文本 和复杂文档,适合专业场景。 定制化能力:支持用户自定义 训练和微调,适应特定需求。 Open AI o3 mini 小型化设计:轻量级模型, 适合资源有限的环境。 快速响应:优化推理速度, 适合实时交互场景。 通用性强:适用于多种自 然语言处理任务,如对话 生成和文本理解。 爬虫数据采集 1、阅读网页源代码,提取特定网页内容; 5支持联网查询网址,Claude 3.5 sonnet暂不支持; 四个模型均能根据上传的网页代码,对多个网址链接进行筛选、去重,完全提取出符合指令要求的所有网址链接并形成列表; 在复杂爬虫任务上,DeepSeek R1与Open AI o3min生成的代码均能正常执行数据采集任务,o3响应速度更快,R1数据采集结果更加完 整准确;其他2个模型都存在多次调试但代码仍然运行不成功的问题,如代码中罗列URL不全、输出文本中提取数据为空等。0 码力 | 85 页 | 8.31 MB | 7 月前3RocketMQ v3.2.4 开发指南
CORBA Notification 规范中,无此消费方式。 在 JMS 规范中,JMS point-to-point model 不乀类似,但是 RocketMQ 的集群消费功能大等亍 PTP 模型。 因为 RocketMQ 单个 Consumer Group 内的消费者类似亍 PTP,但是一个 Topic/Queue 可以被多个 Consumer Group 消费。 顺序消息 TOPIC_A TOPIC_B Producer Producer Consumer Consumer Consumer 图表 5-1 RocketMQ 是什么 是一个队列模型的消息中间件,具有高性能、高可靠、高实时、分布式特点。 Producer、Consumer、队列都可以分布式。 Producer 吐一些队列轮流収送消息,队列集合称为 Topic,Consumer 客户端实例名称,客户端创建的多个 Producer、 Consumer 实际是共用一个内部实例(这个实例包含 网络连接、线程资源等) clientCallbackExecutorThreads 4 通信层异步回调线程数 pollNameServerInteval 30000 轮询 Name Server 间隔时间,单位毫秒 项目开源主页:https://github.com/alibaba/RocketMQ0 码力 | 52 页 | 1.61 MB | 1 年前3Ubuntu 桌面培训 2010
强调 Ubuntu 和其他操作系统不同,默认桌面是绝对干净的。用户可以根据喜好自由 地在桌面上添加文件和程序图标。 GNOME 是 Ubuntu 的默认桌面环境。 GNOME (GNU 网络对象模型环境,GNU Network Object Model Environment)是一个国际性的项目,为开发完整的,由自 由软件组成的桌面环境而努力。桌面环境,即图形用户界面,是计算机系统中最外层 的软件。GNOME 如果您选择了置于底层选项,结果如下图所示。 图 IV.78 将对象置于底层 教员注记: 如果时间允许,让学生们探索排序菜单的其他选项,解释每个选项的适用环境。尤 其要讲解在对象之后这个选项以及下移一层和在对象之后的区别。这项教学的优先 级不高。 198 使用 OpenOffice.org 图画 目录 Lucid Lynx 复刻对象有时您需要创建同样形状和尺寸的多个对象。在 Draw 中,您可以复刻或多 在对话框底部的下拉菜单中设定文件保存格式。 5. 单击保存来保存文件。文件保存完毕。 练习2:使用 Calc 完成基本制表任务假设您是公司的客户经理,需要为公司准备季度 财务报告。您需要收集和分析大量数据,做出符合要求的报告,向管理层展示数据并 将报告输出为 PDF 格式以便存档查考。要做好这一工作,您需要完成以下任务: • 在电子表格中输入数据。设置格式。 • 在数据中应用公式和函数 222 上机练习 目录 Lucid Lynx0 码力 | 540 页 | 26.26 MB | 1 年前3GPU Resource Management On JDOS
Management On JDOS 梁永清 liangyongqing1@jd.com 提供的服务 1. 用于实验的 GPU 容器 2.基于 Kubeflow 的机器学习训练服务 3.模型管理和模型 Serving 服务 Experiment Training Serving 均基于容器,不对业务方直接提供 GPU 物理机 GPU 实验 JDOS 常规的容器服务 ,使用 gpu 的 Serving 服务 提供统一便捷的 Serving 服务,只需用户指定模型,即可提供 grpc 和 rest 服务,同时使用 GPU 复用 +HPA 提高 GPU 利用率 创建 Serving 与训练集成 • 用户只需要简单选择机房和 镜像填写模型名即可完成 Serving 服务创建 自有模型 • 用户只需要填写模型地址即 可 GPU 监控 • 容器监控服务,自适 应 GPU 容器,可根据0 码力 | 11 页 | 13.40 MB | 1 年前3基于 KUBERNETES 的 容器器 + AI 平台
⽣生产级镜像仓库解决⽅方案,基于 • ⼀一键⾼高可⽤用部署和维护 • 为多租户和复杂权限集成⽽而增强 『token service』 • 管理理基于规则的镜像仓库 • 其他企业需要的优化功能 企业典型的多租户模型 租户 Tenant User User group Namespace Deployment Registry project CI/CD workspace Pod … TensorFlow 任务运⾏行行状态 • ⽀支持分布式 TensorFlow 任务 KUBEFLOW 之上 • 借⼒力力容器器平台提供⽣生产级的集群资源管理理 • ⼯工作区隔离与共享 • 数据、模型、环境、应⽤用等 • 全⾯面⽀支持 AI ⼯工作流 • 探索开发 • 线上运⾏行行 关注并回复 kubecon18 P7 展台0 码力 | 19 页 | 3.55 MB | 1 年前3
共 8 条
- 1