《TensorFlow 2项目进阶实战》6-业务落地篇:实现货架洞察Web应⽤ORM 是什么 常见的 Python ORM • SQLAlchemy • Flask-SQLAlchemy • Django ORM • peewee 常见的 Python ORM • SQLAlchemy • Flask-SQLAlchemy • Django ORM • peewee Flask-SQLAlchemy 快速入门 Flask-SQLAlchemy 快速入门0 码力 | 54 页 | 6.30 MB | 1 年前3
PyTorch Release Notesrequired in CUDA graphs workloads between graph replays. ‣ The PyTorch container includes a version of Django with a known vulnerability that was discovered late in our QA process. See CVE-2021-31542 for details0 码力 | 365 页 | 2.94 MB | 1 年前3
机器学习课程-温州大学-02-数学基础回顾-2.CS229-Prob1 条件概率和独立性 2. 随机变量 2.1 累积分布函数 2.2 概率质量函数 2.3 概率密度函数 2.4 期望 2.5 方差 2.6 一些常见的随机变量 3. 两个随机变量 3.1 联合分布和边缘分布 3.2 联合概率和边缘概率质量函数 3.3 联合概率和边缘概率密度函数 3.4 条件概率分布 3.5 贝叶斯定理 3.6 独立性 3.7 期望和协方差 4. 多个随机变量 ,在随机实验中,我们可能有不止一 个感兴趣的量。例如,在一个我们掷硬币十次的实验中,我们可能既关心 出现的正面数量,也 关心 连续最长出现正面的长度。在本节中,我们考虑两个随机变量的设置。 3.1 联合分布和边缘分布 假设我们有两个随机变量,一个方法是分别考虑它们。如果我们这样做,我们只需要 和 。 但是如果我们想知道在随机实验的结果中, 和 同时假设的值,我们需要一个更复杂的结构,称为 非正式地说,如果“知道”一个变量的值永远不会对另一个变量的条件概率分布有任何影响,那么两个随 机变量 和 是独立的,也就是说,你只要知道 和 就知道关于这对变量 , 的所有信息。 以下引理将这一观察形式化: 引理3.1 如果 和 是独立的,那么对于任何 , ,我们有: 利用上述引理,我们可以证明如果 与 无关,那么 的任何函数都与 的任何函数无关。 3.7 期望和协方差 假设我们有两个离散的随机变量0 码力 | 12 页 | 1.17 MB | 1 年前3
全连接神经网络实战. pytorch 版. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3.1 模型的加载与保存 15 3.2 初始化网络权重-方法一 16 3.3 初始化网络权重-方法二和三 17 4 构建自己的数据集 . . . . . . . . . . . . . . . . 中也是比较浪费时间的,所以实际情况如何选择网络训 练设备也是需要慎重考虑的。 本节源码参见 chapter2-2.py。 3. 更完善的神经网络 3.1 模型的加载与保存 15 3.2 初始化网络权重-方法一 16 3.3 初始化网络权重-方法二和三 17 本章我们的目标是把神经网络做的更完善。 3.1 模型的加载与保存 有时候我们希望将训练了一定轮数的模型参数保存起来,这个时候我们就需要保存和恢复模 型了。 model0 码力 | 29 页 | 1.40 MB | 1 年前3
PyTorch OpenVINO 开发实战系列教程第一篇最终根据得到的参数就可以绘制回归直线。那这个计算图到底 是怎么样的?答案就是很简单的数学知识,最常见的直线方程 如下: (公式 1-1) 假设我们有二维的坐标点数据集: x: 1,2,0.5,2.5,2.6,3.1 y: 3.7,4.6,1.65,5.68,5.98,6.95 我们通过随机赋值初始 k、b 两个参数,根据公式 1-1,x 会 生成一个对应输出 ,它跟真实值 y 之间的差值我们称为损失, 代码来验证我们上面的理论解释了。Pytorch 提供了丰富的函 数组件可以帮助我们快速搭建线性回归模型并完成训练预测。 第一步:构建数据集 x = np.array([1,2,0.5,2.5,2.6,3.1], dtype=np.float32). reshape((-1, 1)) PyTorch + OpenVINO 开发实战系列教程 第一篇 10 y = np.array([3.7,4.60 码力 | 13 页 | 5.99 MB | 1 年前3
机器学习课程-温州大学-02-数学基础回顾-1.CS229-LinearAlgebra机器学习课程复习材料-线性代数 线性代数复习和参考 1. 基础概念和符号 1.1 基本符号 2.矩阵乘法 2.1 向量-向量乘法 2.2 矩阵-向量乘法 2.3 矩阵-矩阵乘法 3 运算和属性 3.1 单位矩阵和对角矩阵 3.2 转置 3.3 对称矩阵 3.4 矩阵的迹 3.5 范数 3.6 线性相关性和秩 3.7 方阵的逆 3.8 正交阵 3.9 矩阵的值域和零空间 3.10 个元素。 我们可以使用矩阵乘法的定义直接 验证这一点: 3 运算和属性 在本节中,我们介绍矩阵和向量的几种运算和属性。 希望能够为您复习大量此类内容,这些笔记可以作 为这些主题的参考。 3.1 单位矩阵和对角矩阵 单位矩阵, ,它是一个方阵,对角线的元素是1,其余元素都是0: 对于所有 ,有: 注意,在某种意义上,单位矩阵的表示法是不明确的,因为它没有指定 的维数。通常, 的维数是从上0 码力 | 19 页 | 1.66 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版2021127 参考文献 第 2 章 回归问题 2.1 神经元模型 2.2 优化方法 2.3 线性模型实战 2.4 线性回归 2.5 参考文献 第 3 章 分类问题 3.1 手写数字图片数据集 3.2 模型构建 3.3 误差计算 3.4 真的解决了吗 3.5 非线性模型 3.6 表达能力 3.7 优化方法 3.8 手写数字图片识别体验 3 邮 政编码、快递单号、手机号码等都属于数字图片识别范畴。这里将以数字图片识别为例, 探索如何用机器学习的方法去解决这个问题。 3.1 手写数字图片数据集 机器学习需要从数据中间学习,因此首先需要采集大量的真实样本数据。以手写的数 字图片识别为例,如图 3.1 所示,需要收集较多的由真人书写的 0~9 的数字图片,为了便 于存储和计算,通常把收集的原始图片缩放到某个固定的大小(Size 或 1 表示硬币的反面,这种编码方式 叫作数字编码(Number Encoding)。对于手写数字图片识别问题,编码方式更为直观,直接 用数字的 0~9 来表示类别名为 0~9 的图片。 图 3.1 手写的数字图片样例 如果希望模型能够在新样本上也能具有良好的表现,即模型泛化能力(Generalization Ability)较好,那么应该尽可能多地增加数据集的规模和多样性(Variance),使得用于学习的0 码力 | 439 页 | 29.91 MB | 1 年前3
Experiment 6: K-Meansthree that holds a set of RGB values. Here is the K-means algorithm as it applies to this problem: 3.1 K-Means Algorithm 1. For initialization, sample 16 colors randomly from the original small pic- ture0 码力 | 3 页 | 605.46 KB | 1 年前3
动手学深度学习 v2.02.7.2 查找特定函数和类的用法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 3 线性神经网络 85 3.1 线性回归 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 我们将从经 典算法————线性神经网络开始,介绍神经网络的基础知识。经典统计学习技术中的线性回归和softmax回 归可以视为线性神经网络,这些知识将为本书其他部分中更复杂的技术奠定基础。 3.1 线性回归 回归(regression)是能为一个或多个自变量与因变量之间关系建模的一类方法。在自然科学和社会科学领 域,回归经常用来表示输入和输出之间的关系。 在机器学习领域中的大多数任务通 (3.1.6) 在训练模型时,我们希望寻找一组参数(w∗, b∗),这组参数能最小化在所有训练样本上的总损失。如下式: w∗, b∗ = argmin w,b L(w, b). (3.1.7) 3.1. 线性回归 87 解析解 线性回归刚好是一个很简单的优化问题。与我们将在本书中所讲到的其他大部分模型不同,线性回归的解可 以用一个公式简单地表达出来,这类解叫作解析解(analytical0 码力 | 797 页 | 29.45 MB | 1 年前3
《Efficient Deep Learning Book》[EDL] Chapter 6 - Advanced Learning Techniques - Technical Revieworders of magnitude more expensive to pre-train. GPT-3 takes 355 GPU years, which comes out to be 3.1 Million GPU hours, which even with the cheapest GPU available on GCP (K80 GPU @ $0.45 / hr7) costs0 码力 | 31 页 | 4.03 MB | 1 年前3
共 11 条
- 1
- 2













