【PyTorch深度学习-龙龙老师】-测试版202112青 天。即使如此,在某个方面呈现出类似、接近甚至超越人类智能水平的机器被证明是可行 的。 怎么实现人工智能是一个非常广袤的问题。人工智能的发展主要经历了三个阶段,每 个阶段都代表了人们从不同的角度尝试实现人工智能的探索足迹。早期,人们试图通过总 结、归纳出一些逻辑规则,并将逻辑规则以计算机程序的方式实现,来开发出智能系统。 但是这种显式的规则往往过于简单,并且很难表达复杂、抽象的概念和规则。这一阶段被 如果换一个角度来看待这个问题,它其实可以理解为一组连续值(向量)的预测问题。 给定数据集?,算法需要从?中学习到数据的真实模型,从而预测未见过的样本的输出 值。在假定模型的类型后,学习过程就变成了搜索模型参数的问题。比如假设神经元为线 性模型,那么训练过程即为搜索线性模型的?和?参数的过程。训练完成后,利用学到的模 型,对于任意的新输入?,可以使用学习模型输出值作为真实值的近似。从这个角度来 看,它是一个连续值的预测问题。 张量?,可以在 不改变张量的存储的条件下,将张量?理解为 2 个样本,每个样本的特征是长度 48 的向 量,甚至还可以理解为 4 个样本,每个样本的特征是长度为 24 的向量。同一个存储,从不 同的角度观察数据,可以产生不同的视图,这就是存储与视图的关系。视图的产生是非常 灵活的,但需要人为保证是合理且合法的。 我们通过 torch.arange()模拟生成一个向量数据,并通过 torch.reshape()视图改变函数产0 码力 | 439 页 | 29.91 MB | 1 年前3
动手学深度学习 v2.0apply(init_weights); 3.7.2 重新审视Softmax的实现 在前面 3.6节的例子中,我们计算了模型的输出,然后将此输出送入交叉熵损失。从数学上讲,这是一件完全 合理的事情。然而,从计算角度来看,指数可能会造成数值稳定性问题。 回想一下,softmax函数ˆyj = exp(oj) ∑ k exp(ok),其中ˆyj是预测的概率分布。oj是未规范化的预测o的第j个元素。如 果ok wikipedia.org/wiki/LogSumExp 3.7. softmax回归的简洁实现 125 小结 • 使用深度学习框架的高级API,我们可以更简洁地实现softmax回归。 • 从计算的角度来看,实现softmax回归比较复杂。在许多情况下,深度学习框架在这些著名的技巧之外 采取了额外的预防措施,来确保数值的稳定性。这使我们避免了在实践中从零开始编写模型时可能遇 到的陷阱。 练习 w)P(w)得到后验。如何得 到带正则化的P(w)? Discussions66 4.6 暂退法(Dropout) 在 4.5节 中,我们介绍了通过惩罚权重的L2范数来正则化统计模型的经典方法。在概率角度看,我们可以通 过以下论证来证明这一技术的合理性:我们已经假设了一个先验,即权重的值取自均值为0的高斯分布。更直 观的是,我们希望模型深度挖掘特征,即将其权重分散到许多特征中,而不是过于依赖少数潜在的虚假关联。0 码力 | 797 页 | 29.45 MB | 1 年前3
机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入我们实际构建和训练模型的数据集将如下所示: 这被称为连续词袋结构,并在word2vec论文 one of the word2vec papers 中进行过描述。 18 3.Word2Vec 负采样 计算的角度来看,SkipGram非常消耗资源:尤其是我们将在 数据集中为每个训练样本做一次(很可能数千万次)。我们 需要做一些事情来提高效率。 一种方法是将目标分成两个步骤: 1.生成高质量的单词嵌入(不要担心下一个单词预测)。 人 类水平,也可能夸大基础任务的实际性能。 存在的问题03: 因为人类学习大多数语言任务不需要 大型受监督的数据集,当前NLP技术 在概念上具有一定的局限性。 存在的问题01: 从实用的角度来看,每一项新任务都需 要一个标记示例的大数据集,这限制了 语言模型的适用性; 对于其中的许多任务(从纠正语法到生 成抽象概念的示例,再到评论一个短篇 故事等等),很难收集一个大型的监督0 码力 | 44 页 | 2.36 MB | 1 年前3
《TensorFlow 2项目进阶实战》5-商品识别篇:使用ResNet识别你的货架商品tobacco(烟草) 513 38032 4487 42519 82.88 All 2395 344854 39457 384311 160.46 RP2K 各品类数据统计 RP2K 样例数据(规格、细粒度、角度) “Hello TensorFlow” Try it! 应⽤用:使⽤用 TensorFlow 2 训练 ResNet “Hello TensorFlow” Try it! 应⽤用:使用ResNet识别货架商品0 码力 | 58 页 | 23.92 MB | 1 年前3
机器学习课程-温州大学-10深度学习-人脸识别与风格迁移在数据库中对人脸进行聚类, 直接K-Means即可。 5 1.人脸识别概述 人脸检测的步骤 • 人脸定位 确定是否存在人脸,人脸存在的位置、范围等 • 人脸对齐 把众多人脸图像转换到一个统一角度和姿势 • 确定关键点 关键点包括:眼角、鼻尖、嘴角等 6 1.人脸识别概述 人脸检测常用算法(深度学习框架) • MTCNN算法 • HR • Face r-CNN • PyramidBox0 码力 | 34 页 | 2.49 MB | 1 年前3
机器学习课程-温州大学-15深度学习-GAN定义,较好地解决了训练坍塌问题。 图 WGAN的结构 2. GAN的理论与实现模型 22 GAN的衍生模型 GAN的理论与实现模型 (5) EBGAN--基于能量的生成式对抗网络,从能量模型角度给出了解释。 图 EBGAN的结构 2. GAN的理论与实现模型 生成模型 z ~x X 自然输入 编码 判别模型 解码 均方误差 能量 生成输入 随机噪声 23 GAN的衍生模型0 码力 | 35 页 | 1.55 MB | 1 年前3
机器学习课程-温州大学-03深度学习-PyTorch入门out_features指的是输出的二维张量的大小,即输出的二维张量的形状为 [batch_size,output_size],当然,它也代表了该全连接层的神经元个数。 从输入输出的张量的shape角度来理解,相当于一个输入为[batch_size, in_features]的张量变换成了[batch_size, out_features]的输出张量。 37 4. 训练一个分类器 torch0 码力 | 40 页 | 1.64 MB | 1 年前3
机器学习课程-温州大学-10机器学习-聚类? 2 + σ? ??? 2 − σ? ??? 2 ⋅ σ? ??? 2 /??2 4. 聚类的评价指标 ARI取值范围为[−1,1],值越大意味着聚 类结果与真实情况越吻合。从广义的角度 来讲,ARI衡量的是两个数据分布的吻合 程度 46 参考文献 [1] Wong J A H A . Algorithm AS 136: A K-Means Clustering Algorithm[J]0 码力 | 48 页 | 2.59 MB | 1 年前3
Keras: 基于 Python 的深度学习库+1] 相 同; 而 height_shift_range=1.0 时, 可能值是 [-1.0, +1.0) 之间的浮点数。 • shear_range: 浮点数。剪切强度(以弧度逆时针方向剪切角度)。 • zoom_range: 浮点数或 [lower, upper]。随机缩放范围。如果是浮点数,[lower, upper] = [1-zoom_range, 1+zoom_range]。 transform_parameters: 字符串 - 参数对表示的字典,用于描述转换。目前,使用字典中的 以下参数: – ‘theta’: 浮点数。旋转角度(度)。 – ‘tx’: 浮点数。在 x 方向上移动。 – ‘ty’: 浮点数。在 y 方向上移动。 – shear’: 浮点数。剪切角度(度)。 – ‘zx’: 浮点数。放大 x 方向。 – ‘zy’: 浮点数。放大 y 方向。 – ‘flip_horizontal’:0 码力 | 257 页 | 1.19 MB | 1 年前3
机器学习课程-温州大学-02-数学基础回顾-1.CS229-LinearAlgebra是不相交的子集,它们一起跨越 的整个空间。 这种类型的集合称为正交 补,我们用 表示。 3.10 行列式 一个方阵 的行列式是函数 : ,并且表示为 。 或者 (有点像迹运算 符,我们通常省略括号)。 从代数的角度来说,我们可以写出一个关于 行列式的显式公式。 因此, 我们首先提供行列式的几何解释,然后探讨它的一些特定的代数性质。 给定一个矩阵: 考虑通过采用 行向量 的所有可能线性组合形成的点 的集合,其中线性组合的0 码力 | 19 页 | 1.66 MB | 1 年前3
共 10 条
- 1













