机器学习课程-温州大学-06深度学习-优化算法1 2023年04月 深度学习-优化算法 黄海广 副教授 2 01 小批量梯度下降 本章目录 02 优化算法 03 超参数调整和BatchNorm 04 Softmax 3 01 小批量梯度下降 02 优化算法 03 超参数调整和BatchNorm 04 Softmax 1.小批量梯度下降 4 小批量梯度下降 小批量梯度下降(Mini-Batch ?(?) ?? (?) (同步更新?? ,(j=0,1,...,n )) 5 小批量梯度下降 6 01 小批量梯度下降 02 优化算法 03 超参数调整和BatchNorm 04 Softmax 2.优化算法 7 伦敦温度的例子 days temperature ?1 = 40°F ?2 = 49°F ?3 = 45°F ... ?180 = ?2,再说一次,平 方是针对整个符号的操作。 接着RMSprop会这样更新参数值,?: = ? − ? ?? ???,?: = ? − ? ?? ???, 12 ADAM Adam优化算法基本上就是将Momentum和RMSprop结合在一起 最后更新权重,所以?更新后是?: = ? − ???? corrected ??? corrected+? (如果你只是用 Momentum,使用0 码力 | 31 页 | 2.03 MB | 1 年前3
优化小实例2D函数优化实例 主讲人:龙良曲 Himmelblau function Minima Plot Gradient Descent 下一课时 MNIST反向传播 Thank You.0 码力 | 7 页 | 542.69 KB | 1 年前3
房源质量打分中深度学习应用及算法优化-周玉驰2019 KE.COM ALL COPYRIGHTS RESERVED 1 周玉驰 贝壳找房 - 数据智能中心 - 策略算法部 AI选房中深度学习的实践及优化 2019 KE.COM ALL COPYRIGHTS RESERVED 2 2019 KE.COM ALL COPYRIGHTS RESERVED 2 2019 KE.COM ALL COPYRIGHTS RESERVED 3 RESERVED 14 模型演变历程 2019 KE.COM ALL COPYRIGHTS RESERVED 15 模型演变历程 v1.0 初版模型系统 v2.0 深度学习模型 v2.0+ 效果持续优化 XGBoost DNN+RNN 特征建设 v1.0 初版模型系统 2019 KE.COM ALL COPYRIGHTS RESERVED 16 v1.0 - 初版模型系统概览 • 房源特征 可以盘点所有房源质量 2019 KE.COM ALL COPYRIGHTS RESERVED 20 模型演变历程 v1.0 初版模型系统 v2.0 深度学习模型 v2.0+ 效果持续优化 XGBoost DNN+RNN 特征建设 2019 KE.COM ALL COPYRIGHTS RESERVED 21 RNN RNN LSTM 2019 KE.COM ALL COPYRIGHTS0 码力 | 48 页 | 3.75 MB | 1 年前3
AutoEncoder自编码器0 码力 | 29 页 | 3.49 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112第 2 章 回归问题 2.1 神经元模型 2.2 优化方法 2.3 线性模型实战 2.4 线性回归 2.5 参考文献 第 3 章 分类问题 3.1 手写数字图片数据集 3.2 模型构建 3.3 误差计算 3.4 真的解决了吗 3.5 非线性模型 3.6 表达能力 3.7 优化方法 3.8 手写数字图片识别体验 3.9 小结 3 3.10 参考文献 第 4 章 PyTorch 基础 4.1 数据类型 4.2 数值精度 4.3 待优化张量 4.4 创建张量 预览版202112 4.5 张量的典型应用 4.6 索引与切片 4.7 维度变换 4.8 Broadcasting 4.9 数学运算 4.10 前向传播实战 4.11 参考文献 第 5 章 PyTorch 7.3 激活函数导数 7.4 损失函数梯度 7.5 全连接层梯度 预览版202112 7.6 链式法则 7.7 反向传播算法 7.8 Himmelblau 函数优化实战 7.9 反向传播算法实战 7.10 参考文献 第 8 章 PyTorch 高级用法 8.1 常见功能模块 8.2 模型装配、训练与测试 8.3 模型保存与加载0 码力 | 439 页 | 29.91 MB | 1 年前3
动手学深度学习 v2.02.5 定义损失函数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.2.6 定义优化算法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.2.7 训练 . . . . 定义损失函数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 ii 3.3.6 定义优化算法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.3.7 训练 . . . 3.7.2 重新审视Softmax的实现 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 3.7.3 优化算法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 3.7.4 训练0 码力 | 797 页 | 29.45 MB | 1 年前3
Keras: 基于 Python 的深度学习库. . . . . . . . . . . . . . . . . . . . . . . . 10 3.1.5.1 基于多层感知器 (MLP) 的 softmax 多分类: . . . . . . . . . . . . 11 3.1.5.2 基于多层感知器的二分类: . . . . . . . . . . . . . . . . . . . . . . 12 3.1.5.3 类似 VGG Keras 模型? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.3.6.1 保存/加载整个模型(结构 + 权重 + 优化器状态) . . . . . . . . . 28 3.3.6.2 只保存/加载模型的结构 . . . . . . . . . . . . . . . . . . . . . . . . 29 3 5.11.3 AlphaDropout [source] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 5.12 层封装器 wrappers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 5.12.1 TimeDistributed0 码力 | 257 页 | 1.19 MB | 1 年前3
复杂环境下的视觉同时定位与地图构建机器人、无人驾驶 SLAM常用的传感器 • 红外传感器:较近距离感应,常用于扫地机器人。 • 激光雷达:单线、多线等。 • 摄像头:单目、双目、多目等。 • 惯性传感器(英文叫IMU,包括陀螺仪、加速度计等):智能手机标配。 常见的单目摄像头 激光雷达 普通手机摄像头也可作为传感器 双目摄像头 微软Kinect彩色-深度(RGBD)传感器 手机上的惯性传感器(IMU) SLAM运行结果 • 设备根据传感器的信息 • 计算自身位置(在空间中的位置和朝向) • 构建环境地图(稀疏或者稠密的三维点云) 稀疏SLAM 稠密SLAM SLAM系统常用的框架 输入 • 传感器数据 前台线程 • 根据传感器数据进行跟踪求解, 实时恢复每个时刻的位姿 后台线程 • 进行局部或全局优化,减少误差累积 • 场景回路检测 输出 • 设备实时位姿 • 三维点云 RGB图 深度图 深度图 IMU测量值 优化以减少误差累积 回路检测 SLAM应用介绍 • 扫地机器人 小米扫地机器人 以激光雷达为核心 戴森360°Eye扫地机器人 以视觉为核心(顶部有全景摄像头) SLAM应用介绍 • 无人机 大疆Phantom4 结合双目立体视觉和超声波,实现空中精准悬停和安全航线自动生成 SLAM应用介绍 • 无人车 MobileEye、特斯拉等自动驾驶方案 以廉价的摄像头为主0 码力 | 60 页 | 4.61 MB | 1 年前3
机器学习课程-温州大学-15深度学习-GAN其隐变量z是一个单值映射:z=f(x) 变分自编码(VAE) 其隐变量z是一个正态分布的采样 生成式对抗网络(GAN) 条件生成式对抗网络(CGAN) 在生成器和判别器中添加某一标签信息 深度卷积生成式对抗网络(DCGAN) 判别器和生成器都使用了卷积神经网络(CNN)来替代GAN 中的多层感知机 为了使整个网络可微,拿掉了CNN 中的池化层 将全连接层以全局池化层替代以减轻计算量。 由一个生成器和一个判别器构成, 通过对抗 学习的方式来训练. 目的是估测数据样本的潜在分布并生成新的数据样本。 2. GAN的理论与实现模型 10 概念简介 提出背景 GAN的概念简介及提出背景 2001年,Tony Jebara 在毕业论文中以最大熵 形式将判别模型与生成 模型结合起来联合学习 2007年,Zhuowen Tu 提出将基 于boosting分类器的判别模型与 基于采样的生成模型相结合,来 它设定参与游戏双方分别为一个生成器 (Generator) 和一个判别器(Discriminator),生成器的目的是尽 量去学习真实的数据分布,而判别器的目的是尽量 正确判别输入数据是来自真实数据还是来自生成器; 为了取得游戏胜利,这两个游戏参与者需要不断优 化, 各自提高自己的生成能力和判别能力,这个学 习优化过程就是寻找二者之间的一个纳什均衡。 GAN的理论与实现模型 2. GAN的理论与实现模型0 码力 | 35 页 | 1.55 MB | 1 年前3
机器学习课程-温州大学-03深度学习-PyTorch入门01 Tensors张量 02 Autograd自动求导 03 神经网络 04 训练一个分类器 3 1.Tensors张量 01 Tensors张量 02 Autograd自动求导 03 神经网络 04 训练一个分类器 4 1.Tensors张量的概念 Tensor实际上就是一个多维数组(multidimensional array) *:element-wise乘法 16 2. Autograd自动求导 01 Tensors张量 02 Autograd自动求导 03 神经网络 04 训练一个分类器 17 PyTorch 1.x的自动微分机制 构 建 计 算 图 创 建 设 置 张 量 (tensor) 设 置 t e n s o r的 requires_ g r a d 的 属 只做简单的数据复制,既不数据 共享,也不对梯度共享,从此两 个张量无关联。 2. Autograd自动求导 19 2. Autograd自动求导 在训练一个神经网络时,梯度的计算是一个关键的步骤,它为神经 网络的优化提供了关键数据。 但是在面临复杂神经网络的时候导数的计算就成为一个难题,要求 人们解出复杂、高维的方程是不现实的。 这就是自动求导出现的原因,当前最流行的深度学习框架如PyTorch 、Tens0 码力 | 40 页 | 1.64 MB | 1 年前3
共 58 条
- 1
- 2
- 3
- 4
- 5
- 6













