【PyTorch深度学习-龙龙老师】-测试版202112
7 维度变换 4.8 Broadcasting 4.9 数学运算 4.10 前向传播实战 4.11 参考文献 第 5 章 PyTorch 进阶 5.1 合并与分割 5.2 数据统计 5.3 张量比较 5.4 填充与复制 5.5 数据限幅 5.6 高级操作 5.7 经典数据集加载 5.8 MNIST 测试实战 5.9 参考文献 第 dim=0) len(result) Out[10]: 4 查看第一个张量的 shape,根据上述的切割方案,它应该包含了 4 个班级的成绩册,shape 预览版202112 5.2 数据统计 5 应为[4,35,8],验证一下: In [10]: result[0] Out[10]: # torch.Size([4, 35, 8]) tensor([[[-6 维度将张量切分为 长度为 1 每份。例如,shape 为[10,35,8]的张量,沿着 dim=0 维度进行 unbind 切分,则获 得 10 个 shape 为[35,8]的张量。 5.2 数据统计 在神经网络的计算过程中,经常需要统计数据的各种属性,如最值、最值元素所在位 置、均值、范数等信息。由于张量维度通常较大,直接观察数据很难获得有用信息,因此 通过获取这些张量的统计信0 码力 | 439 页 | 29.91 MB | 1 年前3经典算法与人工智能在外卖物流调度中的应用
归预测未来五分钟进单的平均 配送时长 • 分商圈、分时段、多模型的精 细化预估 • 分布式、多线程、并行计算最 佳分割点,满足海量数据的实 时性要求 • 在供需失衡之前,即实施调控 手段 5 供需平衡 14 5.2 单量调控模型 • 通过价格平衡未来的进单量 和系统可承载的单量 • 基于GBRT对未来进入单量的 实时预测 • 贪心算法求解系统最佳承载 单量 • 根据当前系统状态匹配最佳 的溢价手段使之回归至最大0 码力 | 28 页 | 6.86 MB | 1 年前3Keras: 基于 Python 的深度学习库
5.1 关于 Keras 层 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.2 核心网络层 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5.2.1 Dense • layer.get_input_shape_at(node_index) • layer.get_output_shape_at(node_index) 关于 KERAS 网络层 59 5.2 核心网络层 5.2.1 Dense [source] keras.layers.Dense(units, activation=None, use_bias=True, kernel_ini0 码力 | 257 页 | 1.19 MB | 1 年前3动手学深度学习 v2.0
1.4 效率 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 5.2 参数管理 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 个网络的串联输出。这也被称 为平行块。 3. 假设我们想要连接同一网络的多个实例。实现一个函数,该函数生成同一个块的多个实例,并在此基础 上构建更大的网络。 Discussions75 5.2 参数管理 在选择了架构并设置了超参数后,我们就进入了训练阶段。此时,我们的目标是找到使损失函数最小化的模 型参数值。经过训练后,我们将需要使用这些参数来做出未来的预测。此外,有时我们希望提取参数,以便 我们首先看一下具有单隐藏层的多层感知机。 74 https://wiki.python.org/moin/GlobalInterpreterLock 75 https://discuss.d2l.ai/t/1827 5.2. 参数管理 197 import torch from torch import nn net = nn.Sequential(nn.Linear(4, 8), nn.ReLU(), nn.Linear(80 码力 | 797 页 | 29.45 MB | 1 年前3
共 4 条
- 1