【PyTorch深度学习-龙龙老师】-测试版2021121 手写数字图片数据集 机器学习需要从数据中间学习,因此首先需要采集大量的真实样本数据。以手写的数 字图片识别为例,如图 3.1 所示,需要收集较多的由真人书写的 0~9 的数字图片,为了便 于存储和计算,通常把收集的原始图片缩放到某个固定的大小(Size 或 Shape),比如 224 个 像素的行和 224 个像素的列(224 × 224),或者 96 个像素的行和 96 个像素的列(96 # 导入视觉库 from matplotlib import pyplot as plt # 绘图工具 from utils import plot_image, plot_curve, one_hot # 便捷绘图函数 batch_size = 512 # 批大小 # 训练数据集,自动从网络下载 MNIST 数据集,保存至 mnist_data 文件夹 train_db=torchvision 清晰,同时也可充分利用矩阵计算的并 行加速能力。那么怎么将图片识别任务的输入和输出转变为满足格式要求的张量形式呢? 考虑输入格式,一张灰度图片?使用矩阵方式存储,形状为:[ℎ, ?],?张图片使用形状 为[?, ℎ, ?]的张量?存储。而模型只能接受向量形式的输入特征向量,因此需要将[ℎ, ?]的矩 阵形式图片特征打平成[ℎ ∙ ?]长度的向量,如图 3.6 所示,其中输入特征的长度?in =0 码力 | 439 页 | 29.91 MB | 1 年前3
《Efficient Deep Learning Book》[EDL] Chapter 3 - Learning Techniquesa performance benchmark. Refer to Figure 3-3 for an example of a label efficient model’s training curve. Figure 3-3: The above plot demonstrates label efficiency between two model training setups. The after the first couple of epochs. The top accuracy achieved is 70.10% highlighted with a dot on the curve. Can we do better with the help of image transformation techniques? Figure 3-8: Baseline and data baseline and distilled models. Note how the solid curve (distillation) reaches the same accuracy in fewer epochs when compared to the dashed curve (baseline without distillation), hence it is sample0 码力 | 56 页 | 18.93 MB | 1 年前3
Lecture 5: Gaussian Discriminant Analysis, Naive BayesMaximize f (x, y, z) subject to g(x, y, z) = 0 r(t) = (x(t), y(t), z(t)) be an arbitrary parameterized curve which lies on the constraint surface and has (x(0), y(0), z(0)) = q Suppose h(t) = f (x(t), y(t) Since t = 0 is a local maximum, we have h′(0) = ∇f |q ·r′(0) = 0 ∇f |q is perpendicular to any curve on the constraint surface through q, which implies ∇f |q is perpendicular to the surface Since ∇g0 码力 | 122 页 | 1.35 MB | 1 年前3
Lecture 3: Logistic RegressionLogistic Regression September 20, 2023 17 / 29 Newton’s Method (Contd.) A tangent line L to the curve y = f (x) at point (x1, f (x1)) The x-intercept of L x2 = x1 − f (x1) f ′(x1) ? ? 0 ?∗ ?"0 码力 | 29 页 | 660.51 KB | 1 年前3
Experiment 1: Linear Regressionadjust the number of iterations you are running if that will help you see the overall trend in the curve. To compare how different learning learning rates affect convergence, it’s helpful to plot J for several0 码力 | 7 页 | 428.11 KB | 1 年前3
Lecture 1: OverviewClassification and Regression Classification: finding decision boundaries Regression: fitting a curve/plane to data x t 0 1 −1 0 1 Feng Li (SDU) Overview September 6, 2023 25 / 57 Supervised Classification0 码力 | 57 页 | 2.41 MB | 1 年前3
动手学深度学习 v2.0内存 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 517 12.4.3 存储器 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 518 12.4.4 CPU 多机训练 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 545 12.7.4 键值存储 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 547 13 计算机视觉 549 图1 中用不同的颜色呈现: 目录 3 图1: 全书结构 • 第一部分包括基础知识和预备知识。1节 提供深度学习的入门课程。然后在 2节 中,我们将快速介绍实 践深度学习所需的前提条件,例如如何存储和处理数据,以及如何应用基于线性代数、微积分和概率基 本概念的各种数值运算。3节 和 4节 涵盖了深度学习的最基本概念和技术,例如线性回归、多层感知机 和正则化。 • 接下来的五章集中讨论现代深度学习技术。5节0 码力 | 797 页 | 29.45 MB | 1 年前3
从推荐模型的基础特点看大规模推荐类深度学习系统的设计 袁镱基于深度学习模型的推荐流程,场景与⽬标 Serving系统 HDFS 数据 通道 训练系统 召回 业务服务 排序 混排 模型 管理 上线 管理 ⽆量 RGW/Cos/ kafka 样本 存储 实时样本 ⽣成服务 离线样本 ⽣成任务 数据 通道 特征 处理 模型 登记 模型 上线 预测 请求 数据 落地 ⽆量 ⽤户⾏为数据上报 特征 库 内容 获取 请求 � 推荐场景的重要性 的特点) 训练框架—基于参数服务器架构的分布式训练框架 TB级模型 分⽚ 存储/更新 百TB数据 分⽚训练 Feature 1: 动态空间 Feature 2.1:短时间内只有部分item和user 被命中,只有部分参数被⽤到 参数按需 获取/更新 Storage 异步训练流⽔线和多级存储:提升性能,降低内存成本 � 问题: � Learner线程中参数拉取和参数更新对性能影响⼤ Learner线程中参数拉取和参数更新对性能影响⼤ � 内存成为主要资源瓶颈。由于需要等待全部参数 就绪,Parameter Server难以利⽤速度慢的存储 介质 样本读取 样本解析 参数拉 取 训练 参数更新 查询Sparse Table 查询Dense Tensor Reader Learner Worker 返回参数 Request Handler Parameter Server 查询Sparse0 码力 | 22 页 | 6.76 MB | 1 年前3
微博在线机器学习和深度学习实践-黄波练周期模型融合 • 模型结构训练与推理兼容:在线PS与离线PS模型结构兼容,自动模型参数转换 • 稳定性优化 • 模型快照:基于ps-scheduler的周期模型版本探测与保存,模型稀疏化分片存储 • 冷备容灾:基于checkpoint机制(Local模式&Remote模式),实现参数服务的高可用,支持基于模型的异构集群迁移,支持集 群扩缩容 • 性能优化 • 通信优化:数据请求(P 引起的性能损耗,性能提升3-5倍 • 分区优化:支持多种分区策略(RANGE/HASH/MOD),解决数据倾斜导致的流量热点瓶颈问题,性能提升2-5倍 • 存储优化:自定义存储方式(ByRow&ByKey),基于row进行矩阵压缩存储,参数内存占用减少90% 3 在线机器学习-参数服务器 模型验证 离线训练 实时训练 模型训练 模型部署 在线服务 离线验证 在线发布 在线验证 在线一致性/ 平台背景、平台架构和平台效果 12 • 平台背景-平台化 成本 效率 效果 实时 机器 人力 时间 开发 运行 迭代 规模 深度 1 平台背景 算法/模型 计算 数据/特征 存储 基础/IDE 业务 调度 集群 2 平台架构 计算 机器学习平台 Feed排序 推荐流 文本分类/检测 Hadoop/Spark 集群 数据仓库集群 高性能GPU集群 Hdfs/Odps0 码力 | 36 页 | 16.69 MB | 1 年前3
超大规模深度学习在美团的应用-余建平模型可变计算路径 运行阶段 计算图裁剪 模型训练框架 • 应用场景——离线预计算 模型召回,ANN检索 粗排模型,降低线上计算量 • 分布式Sharding 模型分片存储,支持超大规模模型 数据并行计算,加速Optimizer计算 • 低频特征过滤 Counting Bloom Filter 概率方式 • 模型数据通路 Base + Delta方式 Ps分布式分片的均衡,避免分片大小不一致 NN网络矩阵按行切分,解决请求包不均衡问题 特征按照Hash方式分布式存储 • 模型并行调超参 grid search random search PS的多模型训练 • 提高内存使用效率 model group内共享特征key的存储 • 超大规模模型 -> 高扇出的分布式PS • 长尾效应:单个分片的抖动(网络、CPU)对请求影响变大 N PS Req … … reply 1 reply 2 reply N … 超过t Backup Request Cancel Request 流式模型的通路 • 持久化存储 本地disk存储,持久化对齐kafka的数据 • PS快速failover Compaction机制,降低load数据量 • Online Learning对数据流的要求 不重不丢:重复的数据会使模型有偏,数据的缺失0 码力 | 41 页 | 5.96 MB | 1 年前3
共 31 条
- 1
- 2
- 3
- 4













