深度学习与PyTorch入门实战 - 18.1 激活函数梯度
激活函数及其梯度 主讲人:龙良曲 Activation Functions Derivative Sigmoid / Logistic Derivative torch.sigmoid Tanh = 2??????? 2? − 1 Derivative torch.tanh Rectified Linear Unit Derivative F.relu 下一课时 Loss及其梯度0 码力 | 14 页 | 724.00 KB | 1 年前3常见函数梯度
常见函数梯度 主讲人:龙良曲 Common Functions ?? + ? ??? + ?? ??? + ?? [? − (?? + ?)]? ?log(?? + ?) 下一课时 什么是激活函数 Thank You.0 码力 | 9 页 | 282.15 KB | 1 年前3激活函数与GPU加速
激活函数与GPU加速 主讲人:龙良曲 Leaky ReLU simply SELU softplus GPU accelerated 下一课时 测试 Thank You.0 码力 | 11 页 | 452.22 KB | 1 年前3QCon北京2018-《从键盘输入到神经网络--深度学习在彭博的应用》-李碧野
0 码力 | 64 页 | 13.45 MB | 1 年前3Keras: 基于 Python 的深度学习库
. . . 8 3.1.1 开始使用 Keras 顺序 (Sequential) 模型 . . . . . . . . . . . . . . . . . . . . . 8 3.1.2 指定输入数据的尺寸 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 3.1.3 编译 . . . . . . . . . . 的相同的栈式 LSTM 模型 . . . . . . . . . . . . 15 3.2 函数式 API 指引 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.2.1 开始使用 Keras 函数式 API . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.2.3 所有的模型都可调用,就像网络层一样 . . . . . . . . . . . . . . . . . . . . 17 3.2.4 多输入多输出模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3.2.5 共享网络层 . . . . . . .0 码力 | 257 页 | 1.19 MB | 1 年前3【PyTorch深度学习-龙龙老师】-测试版202112
1 感知机 6.2 全连接层 6.3 神经网络 6.4 激活函数 6.5 输出层设计 6.6 误差计算 6.7 神经网络类型 6.8 油耗预测实战 6.9 参考文献 第 7 章 反向传播算法 7.1 导数与梯度 7.2 导数常见性质 7.3 激活函数导数 7.4 损失函数梯度 7.5 全连接层梯度 预览版202112 7 7.6 链式法则 7.7 反向传播算法 7.8 Himmelblau 函数优化实战 7.9 反向传播算法实战 7.10 参考文献 第 8 章 PyTorch 高级用法 8.1 常见功能模块 8.2 模型装配、训练与测试 8.3 模型保存与加载 8.4 自定义类 8.5 模型乐园 8.6 测量工具 8.7 可视化 8.8 参考文献 第 WGAN 原理 13.8 WGAN-GP 实战 13.9 参考文献 第 14 章 强化学习 14.1 先睹为快 14.2 强化学习问题 14.3 策略梯度方法 14.4 值函数方法 14.5 Actor-Critic 方法 14.6 小结 14.7 参考文献 第 15 章 自定义数据集 15.1 精灵宝可梦数据集 15.2 自定义数据集加载流程0 码力 | 439 页 | 29.91 MB | 1 年前3动手学深度学习 v2.0
. . . . . . . . . . . . . . . . . . . . 81 2.7.1 查找模块中的所有函数和类 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 2.7.2 查找特定函数和类的用法 . . . . . . . . . . . . . . . . . . . . . . . . . . . 定义模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.2.5 定义损失函数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.2.6 定义优化算法 . . . 4 初始化模型参数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.3.5 定义损失函数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 ii 3.3.6 定义优化算法0 码力 | 797 页 | 29.45 MB | 1 年前3机器学习课程-温州大学-13机器学习-人工神经网络
03 BP算法 4 1.人工神经网络发展历史 发展历史 1943年,心理学家McCulloch和逻辑学家Pitts建立神经网络的数学模型, MP模型 神经元数学模型 神经元生理结构 输入层 输出层 隐藏层 5 1.人工神经网络发展历史 1960年代,人工网络得到了进一步地发展 感知机和自适应线性元件等被提出。 M.Minsky仔细分析了以感知机为代表的神 经网络的局限性,指出了感知机不能解决 McClelland为首的科学家提出了 BP(Back Propagation)神经 网络的概念,是一种按照误差逆 向传播算法训练的多层前馈神经 网络,目前是应用最广泛的神经 网络。 BP神经网络模型 1h v 输入层 输出层 隐层 ,1 kx , k i x , k d x 1b 2b hb qb . . . . . . . . . . . . ,1 ˆky , ˆk j y , ELM),是由黄广斌提出的用于处理单隐层 神经网络的算法 优点: 1.学习精度有保证 2.学习速度快 随机初始化输入权重??和偏置 ,只求解输出权重值??。 1 nx 1 ? ? i n 1 i L 1 L ny 1个输出 层神经元 ?个隐藏 层神经元 ?个输入 层神经元 9 2.感知器算法 01 发展历史 02 感知机算法 03 BP算法0 码力 | 29 页 | 1.60 MB | 1 年前3机器学习课程-温州大学-03深度学习-PyTorch入门
cpu_tensor.numpy() 注意: GPU tensor不能直接转为numpy数组,必须先转到CPU tensor。 如果tensor是标量的话,可以直接使用 item() 函数(只能是标量)将值取出来:loss_output.item() 1.Tensors张量的概念 8 Tensor与NumPy的异同 对比项 NumPy Tensor 相同点 可以定义多维数组,进行切片、改变维度、 tensor 含 义 device ( 是 否 使 用 GPU ) , requires_grad(是否需要求导)等设置参数。 1.Tensors张量的概念 9 Tensor与NumPy的函数对比 . 操作类别 Numpy PyTorch 数据类型 np.ndarray torch.Tensor np.float32 torch.float32; torch.float np.float64 其中???1 ∈ ℝ?×?,???2 ∈ ℝ?×?, 输出的??? ∈ ℝ?×? 该函数一般只用来计算两个二维矩阵的矩阵乘法,并且不支持 broadcast操作。 12 1.Tensor张量乘法 2. 三维带batch的矩阵乘法 torch.bmm() 由于神经网络训练一般采用mini-batch,经常输入的时 三维带batch的矩阵,所以提供torch.bmm(bmat1, bmat20 码力 | 40 页 | 1.64 MB | 1 年前3《TensorFlow 快速入门与实战》5-实战TensorFlow手写体数字识别
神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于 对函数进行估计或近似。神经网络是多层神经元的连接,上一层神经元的输出,作为下一层 神经元的输入。 线性不可分 激活函数(Activation Function) 为了实现神经网络的非线性建模能力,解决一些线性不可分的问题,我们通常使用激活函数 来引入非线性因素。激活函数都采用非线性函数,常用的有Sigmoid、tanh、ReLU等。 全连接层( 全连接层是一种对输入数据直接做线性变换的线性计算层。它是神经网络中最常用的一种层, 用于学习输出数据和输入数据之间的变换关系。全连接层可作为特征提取层使用,在学习特 征的同时实现特征融合;也可作为最终的分类层使用,其输出神经元的值代表了每个输出类 别的概率。 前向传播 前向传播 简化形式: 后向传播( Back Propagation, BP) BP算法的基本思想是通过损失函数对模型参数进行求导, 进行求导, 并根据复合函数求导常用的“链式法则”将不同层的模型参 数的梯度联系起来,使得计算所有模型参数的梯度更简单。 BP算法的思想早在 1960s 就被提出来了。 直到1986年, David Rumelhart 和 Geoffrey Hinton 等人发表了一篇后来成 为经典的论文,清晰地描述了BP算法的框架,才使得BP算 法真正流行起来,并带来了神经网络在80年代的辉煌。 计算梯度0 码力 | 38 页 | 1.82 MB | 1 年前3
共 71 条
- 1
- 2
- 3
- 4
- 5
- 6
- 8