pytorch 入门笔记-03- 神经网络
链滴 pytorch 入门笔记 -03- 神经网络 作者:zyk 原文链接:https://ld246.com/article/1639540087993 来源网站:链滴 许可协议:署名-相同方式共享 4.0 国际 (CC BY-SA 4.0) 前言 本节主要内容是如何使用 torch.nn 包来构建神经网络。 上一讲已经讲过了 autograd,nn 包依赖 autograd 包含各个层和一个 forward(input) 方法,该方法返回 output。 例如: 它是一个简单的前馈神经网络,它接受一个输入,然后一层接着一层地传递,最后输出计算的结果。 神经网络的典型训练过程如下: 1. 定义包含一些可学习的参数(或者叫权重)神经网络模型; 2. 在数据集上迭代; 3. 通过神经网络处理输入; 4. 计算损失(输出结果和正确值的差值大小); 5. 将梯度反向传播回网络的参数; 将梯度反向传播回网络的参数; 6. 更新网络的参数,主要使用如下简单的更新原则: weight = weight - learning_rate * gradient 原文链接:pytorch 入门笔记 -03- 神经网络 定义网络 开始定义一个网络: import torch import torch.nn as nn import torch.nn.functional as F class Net(nn0 码力 | 7 页 | 370.53 KB | 1 年前3全连接神经网络实战. pytorch 版
全连接神经网络实战 . pytorch 版 Dezeming Family Dezeming Copyright © 2021-10-02 Dezeming Family Copying prohibited All rights reserved. No part of this publication may be reproduced or transmitted in any 1.2 导入样本数据 7 2 构建神经网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1 基本网络结构 11 2.2 使用 cuda 来训练网络 13 3 更完善的神经网络 . . . . . . . . [https://dezeming.top/] 找到最新版。对 书的内容建议和出现的错误欢迎在网站留言。 0.1 本书前言 尽管各种关于神经网络 python 实战的资料已经很多了,但是这些资料也各有优点和缺点,有 时候也很难让新手有比较好的选择。 当我们明白何为“神经网络”,何为“反向传播”时,我们就已经具备了开始搭建和训练网络 的能力。此时,最好的方法就是给我们一个由简及难的程序示例,我们能够快速搭建出一个网络,0 码力 | 29 页 | 1.40 MB | 1 年前3卷积神经网络
卷积神经网络 主讲人:龙良曲 Convolution Moving window Several kernels Animation https://medium.freecodecamp.org/an-intuitive-guide-to-convolutional-neural- networks-260c2de0a050 Notation Input_channels: Kernel_channels:0 码力 | 14 页 | 1.14 MB | 1 年前3机器学习课程-温州大学-07深度学习-卷积神经网络
1 2023年03月 深度学习-卷积神经网络 黄海广 副教授 2 01 计算机视觉概述 02 卷积神经网络简介 03 卷积神经网络计算 04 卷积神经网络案例 本章目录 3 01 计算机视觉概述 02 卷积神经网络概述 03 卷积神经网络计算 04 卷积神经网络案例 本章目录 4 计算机视觉 图像获取 提取二维图像 一张图片数据量是64×64×3,因为每张图片都有3个颜色通道。 如果计算一下的话,可得知数据量为12288 12 01 计算机视觉概述 02 卷积神经网络概述 03 卷积神经网络计算 04 卷积神经网络案例 本章目录 13 深层神经网络和卷积神经网络 Input Layer Hidden Layers Output Layer a[4] X Ŷ a[1] 1 a[1] a[3] 3 a[3] n 进行卷积计算,处理大量特征 14 深层神经网络和卷积神经网络 15 卷积神经网络 深度学习=表示学习+浅层学习 16 多层卷积能抽取复杂特征 浅层学到的特征为简单的边缘、角 点、纹理、几何形状、表面等 深层学到的特征则更为复杂抽象,为狗 、人脸、键盘等等 17 边缘检测 神经网络的前几层是通常检测边缘 的,然后,后面的层有可能检测到 物体的部分区域,更靠后的一些层0 码力 | 29 页 | 3.14 MB | 1 年前3机器学习课程-温州大学-04深度学习-深层神经网络
1 2023年03月 深度学习-深层神经网络 黄海广 副教授 2 神经网络的概念 3 神经网络的概念 ? 1 = ?1 1 ?2 1 ?3 1 4 神经网络的概念 我们不将输入层 看作一个标准的 层。 ? 1 = ?1 1 ?2 1 ?3 1 5 ?1 1 ?2 1 ?3 1 ?4 1 = . . . ?1 ሾ1]?. . . 3 ሾ1]?. . . . . . ?4 ሾ1]?. . . ? 1 ∗ ฑ ?1 ?2 ?3 ????? + ?1 1 ?2 1 ?3 1 ?4 1 ? 1 2.神经网络的向量化 6 3.激活函数 Sigmoid函数 ? = ?(?) = ?(?) = 1 1+?−? 当? ? 大于等于0.5时,预测 y=1 当? ? 小于0.5时,预测 y=0 ) 1 ( ( )) d d g z tanh z z = − 8 3.激活函数 ReLu函数 ? = ???(0, ?) 在输入是负值的情况下, 它会输出0,那么神经元 就不会被激活。这意味着 同一时间只有部分神经元 会被激活,从而使得网络 很稀疏,进而对计算来说 是非常有效率的。 9 3.激活函数 Leaky ReLu函数 ? = ???(0.01?, ?) Leaky ReLu通常比Relu激活函数效果要好,0 码力 | 28 页 | 1.57 MB | 1 年前3机器学习课程-温州大学-13机器学习-人工神经网络
机器学习-人工神经网络 黄海广 副教授 2 本章目录 01 发展历史 02 感知机算法 03 BP算法 3 1.人工神经网络发展历史 01 发展历史 02 感知机算法 03 BP算法 4 1.人工神经网络发展历史 发展历史 1943年,心理学家McCulloch和逻辑学家Pitts建立神经网络的数学模型, MP模型 神经元数学模型 神经元生理结构 神经元生理结构 输入层 输出层 隐藏层 5 1.人工神经网络发展历史 1960年代,人工网络得到了进一步地发展 感知机和自适应线性元件等被提出。 M.Minsky仔细分析了以感知机为代表的神 经网络的局限性,指出了感知机不能解决 非线性问题,这极大影响了神经网络的研 究。 单层感知机的数学模型 1 w b 2 w iw N w 1x 2x ix N x . . . ?=1 ? ???? + ? 6 1.人工神经网络发展历史 1982年,加州理工学院J.J.Hopfield 教授提出了Hopfield神经网络模型 ,引入了计算能量概念,给出了网 络稳定性判断。 离散Hopfield神经网络模型 1T 2T IT N T … … 1x 2x ix nx 7 1.人工神经网络发展历史 1986年,Rumelhart和 McClelland为首的科学家提出了0 码力 | 29 页 | 1.60 MB | 1 年前3机器学习课程-温州大学-08深度学习-深度卷积神经网络
1 2023年04月 深度学习-深度卷积神经网络 黄海广 副教授 2 01 经典网络 02 深度残差网络 04 卷积神经网络使用技巧 本章目录 03 其它现代网络 3 01 经典网络 1.经典网络 02 深度残差网络 03 其它现代网络 04 卷积神经网络使用技巧 4 经典网络-LeNet-5 • LeNet 分为两个部分组成: AlexNet 10 VGG16 VGG16 11 VGG16 12 01 经典网络 2.深度残差网络 02 深度残差网络 03 其它现代网络 04 卷积神经网络使用技巧 13 2.深度残差网络 梯度消失和梯度爆炸问题 14 2.深度残差网络 Input Conv3-32 Conv3-32 Conv3-32 Max-Pool Conv3-32 其它现代网络 02 深度残差网络 03 其它现代网络 04 卷积神经网络使用技巧 17 3.谷歌Inception网络 1×1 卷积(Network in Network) 1×1卷积层就是这样实现了一些重要功能的(doing something pretty non-trivial),它给神经网络添加 了一个非线性函数,从而减少或保持输入层中的通道数 量不变,当然如果你愿意,也可以增加通道数量。0 码力 | 32 页 | 2.42 MB | 1 年前3机器学习课程-温州大学-02深度学习-神经网络的编程基础
1 2023年03月 深度学习-神经网络的编程基础 黄海广 副教授 2 本章目录 01 二分类与逻辑回归 02 梯度下降 03 计算图 04 向量化 3 1.二分类与逻辑回归 02 梯度下降 01 二分类与逻辑回归 03 计算图 04 向量化 4 符号定义 ?:表示一个??维数据,为输入数 据,维度为(??, 1);0 码力 | 27 页 | 1.54 MB | 1 年前3MoonBit月兔编程语言 现代编程思想 第十三课 案例:神经网络
案例:基于梯度下降的神经⽹络 Hongbo Zhang 1 案例:鸢尾花 鸢尾花数据集是机器学习中的"Hello World" 1936年发布 包含对3种鸢尾花的测量,各有50个样本 每个样本包含4项特征:花萼与花瓣的⻓度和宽度 ⽬标 通过特征,判断属于哪⼀类鸢尾花 构建并训练神经⽹络,正确率95%以上 2 神经⽹络 神经⽹络是机器学习的⼀种 模拟⼈的⼤脑神经结构 单个神经元通常有 单个神经元通常有 多个输⼊ ⼀个输出 神经元在达到⼀定阈值后激活 通常分为多层结构 3 神经⽹络 ⼀个典型的神经⽹络通常包含 输⼊层:接受输⼊的参数 输出层:输出计算结果 隐含层:输⼊层与输出层之间的层级 神经⽹络的架构 隐含层的层数、节点数、连接⽅式 神经元的激活函数等 4 神经⽹络架构 输⼊:每个样本包含4个特征,四个输⼊ 输出:属于每⼀种类的可能性,三个输出 样本数:150(总共) 样本数:150(总共) ⽹络架构:前馈神经⽹络 输⼊层:四个节点 输出层:三个节点 隐含层:⼀层四个节点 全连接:每⼀个神经元与前⼀层所有神经元相连 5 神经元 , :参数 :输⼊ 激活函数 隐含层:线性整流函数 ReLU 当计算值⼩于零,不激活神经元 输出层:Softmax 将输出整理为总和为1的概率分布 6 神经⽹络实现 运算的定义 1. trait Base { 2.0 码力 | 17 页 | 521.66 KB | 1 年前3QCon北京2018-《从键盘输入到神经网络--深度学习在彭博的应用》-李碧野
Technologies Automation Xiangqian Yu Team Lead, Derivatives Data From Keyboards to Neural Networks 从键盘到神经网络 © 2018 Bloomberg Finance L.P. All rights reserved. What is Bloomberg? The Bloomberg Terminal delivers0 码力 | 64 页 | 13.45 MB | 1 年前3
共 247 条
- 1
- 2
- 3
- 4
- 5
- 6
- 25