【PyTorch深度学习-龙龙老师】-测试版202112
8 Broadcasting 4.9 数学运算 4.10 前向传播实战 4.11 参考文献 第 5 章 PyTorch 进阶 5.1 合并与分割 5.2 数据统计 5.3 张量比较 5.4 填充与复制 5.5 数据限幅 5.6 高级操作 5.7 经典数据集加载 5.8 MNIST 测试实战 5.9 参考文献 第 6 章 神经网络 argmin(dim=1) # 选取概率最小的位置 pred Out[23]: 预览版202112 5.3 张量比较 9 tensor([6, 3]) 可以看到,概率最小值出现在索引 6 和索引 3 上,读者可自行验证这两个元素是否是最小 值。 5.3 张量比较 为了计算分类任务的准确率等指标,通常需要将预测结果和真实标签比较,统计比较 结果中正确的数量来计算准确率。考虑 张量称为源张量。 如下图 5.3 所示,演示了一维张量的 scatter 操作过程。目标张量保存为张量 x,需要 刷新的数据索引号通过 index 表示,新数据保存在源张量 src 中。根据 index 给出的索引位 置将 src 中新的数据依次写入 x 中,并返回更新后的结果张量。 源张量:src 目标张量:x 输出 索引坐标:index 图 5.3 scatter 更新数据示意图0 码力 | 439 页 | 29.91 MB | 1 年前3Keras: 基于 Python 的深度学习库
64 5.2.11 Masking [source] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5.3 卷积层 Convolutional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.3.1 Conv1D add(Masking(mask_value=0., input_shape=(timesteps, features))) model.add(LSTM(32)) 关于 KERAS 网络层 66 5.3 卷积层 Convolutional 5.3.1 Conv1D [source] keras.layers.Conv1D(filters, kernel_size, strides=1, padding='valid'0 码力 | 257 页 | 1.19 MB | 1 年前3动手学深度学习 v2.0
5.2.3 参数绑定 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 5.3 延后初始化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 查看初始化模块文档以了解不同的初始化方法。 3. 构建包含共享参数层的多层感知机并对其进行训练。在训练过程中,观察模型各层的参数和梯度。 4. 为什么共享参数是个好主意? Discussions76 5.3 延后初始化 到目前为止,我们忽略了建立网络时需要做的以下这些事情: • 我们定义了网络架构,但没有指定输入维度。 • 我们添加层时没有指定前一层的输出维度。 • 我们在初始化参数时,甚至没0 码力 | 797 页 | 29.45 MB | 1 年前3
共 3 条
- 1