【PyTorch深度学习-龙龙老师】-测试版202112Broadcasting 4.9 数学运算 4.10 前向传播实战 4.11 参考文献 第 5 章 PyTorch 进阶 5.1 合并与分割 5.2 数据统计 5.3 张量比较 5.4 填充与复制 5.5 数据限幅 5.6 高级操作 5.7 经典数据集加载 5.8 MNIST 测试实战 5.9 参考文献 第 6 章 神经网络 6.1 感知机 6 b)函数是不同的,它并不是逐元素的比较操 作,而是比较两个张量是否完全相等,返回一个布尔标量。 5.4 填充与复制 本节介绍张量的填充操作和复制操作。 5.4.1 填充 对于图片数据的高和宽、序列信号的长度等,每个样本的维度长度可能各不相同。为 预览版202112 5.4 填充与复制 11 了方便网络的并行运算,通常需要将不同长度的数据扩张为相同长度,之前介绍了通过复 28大小的图片数据为例,如果网络层所接受的数据高宽为32 × 32,则必须将28 × 28 大小填充到32 × 32,可以选择在图片矩阵的上、下、左、右方向各填充 2 个单元,如下图 5.2 所示。 预览版202112 5.4 填充与复制 13 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 00 码力 | 439 页 | 29.91 MB | 1 年前3
Keras: 基于 Python 的深度学习库. 77 5.3.14 ZeroPadding3D [source] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 5.4 池化层 Pooling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 5.4.1 张量,尺寸为 (batch, depth, first_padded_axis, second_padded_axis, third_axis_to_pad)。 关于 KERAS 网络层 79 5.4 池化层 Pooling 5.4.1 MaxPooling1D [source] keras.layers.MaxPooling1D(pool_size=2, strides=None, padding='valid')0 码力 | 257 页 | 1.19 MB | 1 年前3
动手学深度学习 v2.05.3.1 实例化网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 5.4 自定义层 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 层的尺寸,会发生什么?是否立即进行初始化? 2. 如果指定了不匹配的维度会发生什么? 3. 如果输入具有不同的维度,需要做什么?提示:查看参数绑定的相关内容。 Discussions77 5.4 自定义层 深度学习成功背后的一个因素是神经网络的灵活性:我们可以用创造性的方式组合不同的层,从而设计出适 用于各种任务的架构。例如,研究人员发明了专门用于处理图像、文本、序列数据和执行动态规划的层。有时 我们会遇到或要自己发明一个现在在深度学习框架中还不存在的层。在这些情况下,必须构建自定义层。本 节将展示如何构建自定义层。 77 https://discuss.d2l.ai/t/5770 5.4. 自定义层 205 5.4.1 不带参数的层 首先,我们构造一个没有任何参数的自定义层。回忆一下在 5.1节对块的介绍,这应该看起来很眼熟。下面 的CenteredLayer类要从其输入中减0 码力 | 797 页 | 29.45 MB | 1 年前3
共 3 条
- 1













