简单回归案例0 码力 | 12 页 | 748.45 KB | 1 年前3
简单回归案例实战0 码力 | 7 页 | 860.99 KB | 1 年前3
动手学深度学习 v2.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 2.5.1 一个简单的例子 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 2.5.2 非标量变量的反向传播 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493 11.11.1 一个简单的问题 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493 11.11.2 学习率调度器 . 2 数据并行性 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 530 12.5.3 简单网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 531 12.5.4 数据同步0 码力 | 797 页 | 29.45 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112预览版202112 预览版202112 前 言 这是一本面向人工智能,特别是深度学习初学者的书,本书旨在帮助更多的读者朋友了 解、喜欢并进入到人工智能行业中来,因此作者试图从分析人工智能中的简单问题入手,一 步步地提出设想、分析方案以及实现方案,重温当年科研工作者的发现之路,让读者身临其 境式的感受算法设计思想,从而掌握分析问题、解决问题的能力。这种方式也是对读者的基 础要求较少的,读者在 人工智能 信息技术是人类历史上的第三次工业革命,计算机、互联网、智能家居等技术的普及 极大地方便了人们的日常生活。通过编程的方式,人类可以将提前设计好的交互逻辑交给 机器重复且快速地执行,从而将人类从简单枯燥的重复劳动工作中解脱出来。但是对于需 要较高智能水平的任务,如人脸识别、聊天机器人、自动驾驶等任务,很难设计明确的逻 辑规则,传统的编程方式显得力不从心,而人工智能(Artificial Intelligence,简称 阶段,每 个阶段都代表了人们从不同的角度尝试实现人工智能的探索足迹。早期,人们试图通过总 结、归纳出一些逻辑规则,并将逻辑规则以计算机程序的方式实现,来开发出智能系统。 但是这种显式的规则往往过于简单,并且很难表达复杂、抽象的概念和规则。这一阶段被 称为推理期。 1970 年代,科学家们尝试通过知识库加推理的方式解决人工智能,通过构建庞大复杂 的专家系统来模拟人类专家的智能水平。这些明确指定规则的方式存在一个最大的难题,0 码力 | 439 页 | 29.91 MB | 1 年前3
AI大模型千问 qwen 中文文档Transformers & ModelScope 要快速上手 Qwen1.5,我们建议您首先尝试使用 transformers 进行推理。请确保已安装了 transformers>=4. 37.0 版本。以下是一个非常简单的代码片段示例,展示如何运行 Qwen1.5-Chat 模型,其中包含 Qwen1. 5-7B-Chat 的实例: from transformers import AutoModelForCausalLM 进行下载,只需将上述代码的第一行更改为以下内容: from modelscope import AutoModelForCausalLM, AutoTokenizer 借助 TextStreamer ,chat 的流式模式变得非常简单。下面我们将展示一个如何使用它的示例: ... # Reuse the code before `model.generate()` in the last code snippet from transformers 3 下一步 现在,您可以尽情探索 Qwen 模型的各种用途。若想了解更多,请随时查阅本文档中的其他内容。 1.3 使用 Transformers 实现 Chat Qwen1.5 最重要同时也最简单的用途是通过 transformers 库实现 Chat 功能。在本文档中,我们将展示如何在 流式模式或非流式模式下与 Qwen1.5-7B-Chat 进行对话。 1.3.1 基本用法 你只需借助0 码力 | 56 页 | 835.78 KB | 1 年前3
机器学习课程-温州大学-02-数学基础回顾-2.CS229-Prob的映射,满足以下性质: 对于每个 , , 如果 是互不相交的事件 (即 当 时, ), 那么: 以上三条性质被称为概率公理。 举例: 考虑投掷六面骰子的事件。样本空间为 , , , , , 。最简单的事件空间是平凡事件空间 .另一个事件空间是 的所有子集的集合。对于第一个事件空间,满足上述要求的唯一概率 度量由 , 给出。对于第二个事件空间,一个有效的概率度量是将事件空间中每个事 件的概率分配为 们通常关心结果的实值函数,比如我们10次投掷 中出现的正面数,或者最长的背面长度。在某些技术条件下,这些函数被称为随机变量。 更正式地说,随机变量 是一个的 函数。通常,我们将使用大写字母 或更简单的 (其中 隐含对随机结果 的依赖)来表示随机变量。我们将使用小写字母 来表示随机变量的值。 举例: 在我们上面的实验中,假设 是在投掷序列 中出现的正面的数量。假设投掷的硬币只有10枚,那 通过使用这个函数,我们可以计算任意事件发生的概率。图1显示了一个样本CDF函数。 性质: 2.2 概率质量函数 当随机变量 取有限种可能值(即, 是离散随机变量)时,表示与随机变量相关联的概率度量的更简单 的方法是直接指定随机变量可以假设的每个值的概率。特别地,概率质量函数(PMF)是函数 ,这样: 在离散随机变量的情况下,我们使用符号 表示随机变量 可能假设的一组可能值。例如,如果 是一0 码力 | 12 页 | 1.17 MB | 1 年前3
pytorch 入门笔记-03- 神经网络例如: 它是一个简单的前馈神经网络,它接受一个输入,然后一层接着一层地传递,最后输出计算的结果。 神经网络的典型训练过程如下: 1. 定义包含一些可学习的参数(或者叫权重)神经网络模型; 2. 在数据集上迭代; 3. 通过神经网络处理输入; 4. 计算损失(输出结果和正确值的差值大小); 5. 将梯度反向传播回网络的参数; 6. 更新网络的参数,主要使用如下简单的更新原则: weight target) 作为输入,计算一个值来估计网络的输出和目标值相差多少。 译者注:output 为网络的输出,target 为实际值 nn 包中有很多不同的损失函数。 nn.MSELoss是一个比较简单的损失函数,它计算输出和目标间的均方误差, 例如: output = net(input) target = torch.rand(10) target = target.view(1, -1) 包,包含了各种用来构成深度神经网络构建块的模块和损失函数,完整的文档请查看 here。 剩下的最后一件事: ● 新网络的权重 更新权重 在实践中最简单的权重更新规则是随机梯度下降(SGD): weight = weight - learning_rate * gradient 我们可以使用简单的 Python 代码实现这个规则: learning_rate = 0.01 for f in net.parameters():0 码力 | 7 页 | 370.53 KB | 1 年前3
Keras: 基于 Python 的深度学习库Theano 作为后端运行。Keras 的开发重点是支持快速的实验。能够以最小的时延把你的想法转 换为实验结果,是做好研究的关键。 如果你在以下情况下需要深度学习库,请使用 Keras: • 允许简单而快速的原型设计(由于用户友好,高度模块化,可扩展性)。 • 同时支持卷积神经网络和循环神经网络,以及两者的组合。 • 在 CPU 和 GPU 上无缝运行。 查看文档,请访问 Keras.io。 Python 2.7-3.6。 1.2 指导原则 • 用户友好。Keras 是为人类而不是为机器设计的 API。它把用户体验放在首要和中心位置。 Keras 遵循减少认知困难的最佳实践:它提供一致且简单的 API,将常见用例所需的用户 操作数量降至最低,并且在用户错误时提供清晰和可操作的反馈。 • 模块化。模型被理解为由独立的、完全可配置的模块构成的序列或图。这些模块可以以尽 可能少的限制组 model,一种组织网络层的方式。最简单的模型是 Sequential 顺 序模型,它是由多个网络层线性堆叠的栈。对于更复杂的结构,你应该使用 Keras 函数式 API, 它允许构建任意的神经网络图。 Sequential 顺序模型如下所示: from keras.models import Sequential model = Sequential() 可以简单地使用 .add() 来堆叠模型:0 码力 | 257 页 | 1.19 MB | 1 年前3
PyTorch OpenVINO 开发实战系列教程第一篇x 表示 3.6 版本下的各个小版本,依此类推 3.7、3.8 同样 如此。本书代码演示以 Python3.6.5 版本作为 Python 支持语 言包。它在 Windows 系统下的安装过程非常简单,只需如下 几步: 1. 下载 Python3.6.5 安装包,地址为: https://www.python.org/ftp/python/3.6.5/python-3.6.5- amd64 度学习框架中都被称为张量。可见在深度学习框架中所有的数 据都是张量形式存在,张量是深度学习数据组织与存在一种数 据类型。 ● 算子 / 操作数 深度学习主要是针对张量的数据操作、这些数据操作从简单到 复杂、多数都是以矩阵计算的形式存在,最常见的矩阵操作就 是加减乘除、此外卷积、池化、激活、也是模型构建中非常有 用的算子 / 操作数。Pytorch 支持自定义算子操作,可以通过 自定义 语法,可以随时运行,灵活修改调整;而静态图则 是效率优先,但是在图构建完成之前无法直接运行。可以看出 动态图更加趋向于开发者平时接触的面向对象的编程方式,也 更容易被开发者理解与接受。下图是一个简单的计算图示例: 图 1-4(计算图示意) 图 1-4 中最底层三个节点表示计算图的输入张量数据节点(a、 b、c)、剩下节点表示操作、带箭头的线段表示数据的流向。 ● 自动微分 使用 Pytorch0 码力 | 13 页 | 5.99 MB | 1 年前3
机器学习课程-温州大学-02-数学基础回顾-1.CS229-LinearAlgebra为矩阵向量积。现在让我们计算关于 的基 : 然后,再利用 和方程 ,我们得到: 我们可以看到,原始空间中的左乘矩阵 等于左乘对角矩阵 相对于新的基,即仅将每个坐标缩放相应 的特征值。 在新的基上,矩阵多次相乘也变得简单多了。例如,假设 。根据 的元素导出 的分析形式,使用原始的基可能是一场噩梦,但使用新的基就容易多了: “对角化”二次型。作为直接的推论,二次型 也可以在新的基上简化。 (回想一下,在旧的表示法中, 。 保持符号清晰是非常重要的,以后完成课程作业时候你就会发现。 4.2 黑塞矩阵 假设 是一个函数,它接受 中的向量并返回实数。那么关于 的黑塞矩阵(也有翻译作海 森矩阵),写做: ,或者简单地说, 是 矩阵的偏导数: 换句话说, ,其: 注意:黑塞矩阵通常是对称阵: 与梯度相似,只有当 为实值时才定义黑塞矩阵。 很自然地认为梯度与向量函数的一阶导数的相似,而黑塞矩阵与二阶导数的相似(我们使用的符号也暗 上面这个表达式没有意义。 因此,黑塞矩阵不是梯度的梯度。 然而,下面这种情况却这几乎是正确 的:如果我们看一下梯度 的第 个元素,并取关于于 的梯度我们得到: 这是黑塞矩阵第 行(列),所以: 简单地说:我们可以说由于: ,只要我们理解,这实际上是取 的每 个元素的梯度,而不是整个向量的梯度。 最后,请注意,虽然我们可以对矩阵 取梯度,但对于这门课,我们只考虑对向量 取黑塞 矩阵。 这会0 码力 | 19 页 | 1.66 MB | 1 年前3
共 44 条
- 1
- 2
- 3
- 4
- 5













