【PyTorch深度学习-龙龙老师】-测试版2021121982 年,随着 John Hopfild 的循环连接的 Hopfield 网络的提出,开启了 1982 年~1995 年的第二次人工智能复兴的大潮,这段期间相继提出了卷积神经网络、循环神经网络、反 向传播算法等算法模型。1986 年,David Rumelhart 和 Geoffrey Hinton 等人将 BP 算法应用 在多层感知机上;1989 年 Yann LeCun 等人将 BP 算法应用在手写数字图片识别上,取得 什么 特征,使得层数越深,网络的表达能力越强呢? 2014 年,Matthew D. Zeiler 等人 [5]尝试利用可视化的方法去理解卷积神经网络到底 学到了什么。通过将每层的特征图利用“反卷积”网络(Deconvolutional Network)映射回输 入图片,即可查看学到的特征分布,如图 10.32 所示。可以观察到,第二层的特征对应到 边、角、色彩等底层图像提取;第三层开始捕获到纹理这些中层特征;第四、五层呈现了 转置卷积(Transposed Convolution,或 Fractionally Strided Convolution,部分资料也称 之为反卷积/Deconvolution,实际上反卷积在数学上定义为卷积的逆过程,但转置卷积并不 能恢复出原卷积的输入,因此称为反卷积并不妥当)通过在输入之间填充大量的 padding 来 实现输出高宽大于输入高宽的效果,从而实现向上采样的目的,如图 10.54 所示。我们先0 码力 | 439 页 | 29.91 MB | 1 年前3
机器学习课程-温州大学-03深度学习-PyTorch入门支持,①对变量求导示例 v=tf.Variable([3.2, 4.3], dtype=tf.float16), #TensorFlow一 般使用梯度磁 带tf.GradientTape来记 录正向 运算过程,然后反播磁带自动 得到梯度值。 ②对常量也可求导,需要增加 watch。 ③对tf.Variable可以通过参数 trainable 控制是否可学习,缺 省是True。 是否支持GPU 不支持 支持 支持0 码力 | 40 页 | 1.64 MB | 1 年前3
机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入这个数据用来联合监 督学习,对GPT-3进 行微调 对这个prompt训练的数据集 和若干模型的结果进行抽样 Labeler(标记者)从 最优到最差将输出 结果进行排序 这个数据用来训练反 馈模型 新的prompt从 数据集中抽样 借助模型生成输出 反馈模型为输出计算 一个反馈结果 反馈结果用来优化策 略 41 ChatGPT得益于通用(基础)模型所构建 AI0 码力 | 44 页 | 2.36 MB | 1 年前3
Keras: 基于 Python 的深度学习库bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint=None) 转置卷积层 (有时被成为反卷积)。 对转置卷积的需求一般来自希望使用与正常卷积相反方向的变换,即,将具有卷积输出尺 寸的东西转换为具有卷积输入尺寸的东西,同时保持与所述卷积相容的连通性模式。 当使用该层作为模型第一层时,需要提供 conv2d_transpose(x, kernel, output_shape, strides=(1, 1), padding='valid', data_format=None) 后端 BACKEND 217 2D 反卷积 (即转置卷积)。 参数 • x: 张量或变量。 • kernel: 核张量。 • output_shape: 表示输出尺寸的 1D 整型张量。 • strides: 步长元组。 • padding: conv3d_transpose(x, kernel, output_shape, strides=(1, 1, 1), padding='valid', data_format=None) 3D 反卷积 (即转置卷积)。 参数 • x: 输入张量。 • kernel: 核张量。 • output_shape: 表示输出尺寸的 1D 整数张量。 • strides: 步长元组。 • padding:0 码力 | 257 页 | 1.19 MB | 1 年前3
动手学深度学习 v2.0max(ok)具有较大的负值。由于精度受限,exp(oj − max(ok))将有 接近零的值,即下溢(underflow)。这些值可能会四舍五入为零,使ˆyj为零,并且使得log(ˆyj)的值为-inf。反 向传播几步后,我们可能会发现自己面对一屏幕可怕的nan结果。 尽管我们要计算指数函数,但我们最终在计算交叉熵损失时会取它们的对数。通过将softmax和交叉熵结 合在一起,可以避免反向传播过程 概念偏移很难用原则性的方式解决。例如,在一个问题突然从“区分猫和狗”偏移为“区分白色和黑色动物” 的情况下,除了从零开始收集新标签和训练,别无妙方。幸运的是,在实践中这种极端的偏移是罕见的。相 反,通常情况下,概念的变化总是缓慢的。比如下面是一些例子: • 在计算广告中,新产品推出后,旧产品变得不那么受欢迎了。这意味着广告的分布和受欢迎程度是逐渐 变化的,任何点击率预测器都需要随之逐渐变化; 举个 例子:将图像错误地分到某一类别可能被视为种族歧视,而错误地分到另一个类别是无害的,那么我们可能 需要相应地调整我们的阈值,在设计决策方式时考虑到这些社会价值。我们还需要注意预测系统如何导致反 馈循环。例如,考虑预测性警务系统,它将巡逻人员分配到预测犯罪率较高的地区。很容易看出一种令人担 忧的模式是如何出现的: 1. 犯罪率高的社区会得到更多的巡逻; 2. 因此,在这些社区中会发现0 码力 | 797 页 | 29.45 MB | 1 年前3
共 5 条
- 1













