QCon2018北京-基于深度学习的视频结构化实践-姚唐仁《基于深度学习的视频结构化实践》 七牛云 AI实验室首席架构师/姚唐仁� • 围绕海量数据提供创新的云服务,帮助客户缩短想法到产品的距离 • 创立6年,每年超过300%的业绩增长 • 已完成5轮融资,累计超过20亿 • 长期服务70多万企业用户和开发者 • 文件数超过2000亿,每日新增文件20亿 • 覆盖全球300个节点 • 覆盖金融、公安、广电媒体、互联网等行业 视觉-最重要的信息感知 2017中国网络视频用户情况 ����2017������������� 传统视频摘要 vs AI视频结构化 内容不完整 依赖经验 实时性差 时效性差 识别范围广 效率高 可迭代 创新基础 传统手工摘要 AI视频结构化 视频结构化场景 视频分解 基础模型要素 ��1�01:02:03-01:10:05� ��1����� �� �� 2 ������ ��PA� ������ 3 4 5 6 ���L ������ ��PA� ����� ���L ��������� ������L 大规模视频训练框架 结构化策略 ���� ������ ���� ���� 主题分类-特征提取 DPN SENet ResNeXt NASNet 主题分类-模型训练 模型融合 a) Early0 码力 | 39 页 | 38.01 MB | 1 年前3
机器学习课程-温州大学-12机器学习-关联规则互依存 性和关联性。如果两个或者多个事物之间存在一定的关联关系,那么,其中 一个事物就能够通过其他事物预测到。 关联规则可以看作是一种IF-THEN关系。假设 商品A被客户购买,那么在相同的交易ID下, 商品B也被客户挑选的机会就被发现了。 5 1.关联规则概述 有没有发生过这样的事:你出去买东西, 结果却买了比你计划的多得多的东西?这 是一种被称为冲动购买的现象,大型零售 e), 但仍保留项集关联信息。 该算法是对Apriori方法的改进。生成一个频繁模式而不需要生成候选模式。 FP-growth算法以树的形式表示数据库,称为频繁模式树或FP-tree。 此树结构将保持项集之间的关联。数据库使用一个频繁项进行分段。这个片段被称 为“模式片段”。分析了这些碎片模式的项集。因此,该方法相对减少了频繁项集 的搜索。 27 3.FP-Growth算法 FP-growth算法思想 第二,只需要两次遍历数据库,大大提高了效率。 29 3.FP-Growth算法 FP-Tree ( Frequent Pattern Tree ) FP树(FP-Tree)是由数据库的初始项集组成的树状结构。 FP树的目的是挖掘最 频繁的模式。FP树的每个节点表示项集的一个项。 根节点表示null,而较低的节点表示项集。在形成树的同时,保持节点与较 低节点(即项集与其他项集)的关联。 30 30 码力 | 49 页 | 1.41 MB | 1 年前3
超大规模深度学习在美团的应用-余建平模型场景应用 召回模型 排序模型 美团超大规模模型应用场景 美团推荐 美团搜索 美团广告 美团应用场景简介 • 场景特点 亿级的用户,千万级的O2O商品 海量的用户行为,完整的交易闭环 LBS相关的推荐 • 模型特点 百亿级别的训练数据 千亿级别的模型特征 秒级实时的模型反馈 目录 • 美团超大规模模型场景简介 • 超大规模机器学习MLX MLX平台目标 更快数据反馈、更少资源消耗 分钟级的数据反馈 增量训练、避免batch重训带来的资源消耗 关于Online Learning MLX的模型能力 • 支持千亿级特征、千亿级样本 • 支持计算图模式,模型结构灵活多样 支持推荐、搜索、广告场景常用的深度学习模型 FTRL、FM、FFM、WDL、DCN、DeepFM、MTL等 • Optimizer FTRL、AdaGrad、AdaDe PS架构搭建 • Worker 模型计算引擎(Engine) 计算图框架(Graph) • 模型计算引擎Engine 模型结构处理 与PS通信交换模型参数 计算图的计算 • 计算图框架Graph 计算逻辑抽象op,通过op组合形成模型结构 提供正向(forward)、反向(backward)、Loss的操作扩展 模型训练框架 • 模型可变计算路径 运行阶段0 码力 | 41 页 | 5.96 MB | 1 年前3
动手学深度学习 v2.0另一个是更实际的示例,我们使用深度学习框架的高级API编写简洁的代码。一旦我们教了您一些组件是如 何工作的,我们就可以在随后的教程中使用高级API了。 内容和结构 全书大致可分为三个部分,在 图1 中用不同的颜色呈现: 目录 3 图1: 全书结构 • 第一部分包括基础知识和预备知识。1节 提供深度学习的入门课程。然后在 2节 中,我们将快速介绍实 践深度学习所需的前提条件,例如如何存储和处理数 network,CNN),这是构成大多数现代计算机视觉系统骨干的强大工具。随后,在 8节 和 9节 中,我们引入了循环神经网络(recurrent neural network,RNN),这是一种利用数据中的时间或序列 结构的模型,通常用于自然语言处理和时间序列预测。在 10节 中,我们介绍了一类新的模型,它采用 了一种称为注意力机制的技术,最近它们已经开始在自然语言处理中取代循环神经网络。这一部分将 帮助读者快速 开发人员要编写一个程序 来管理网上商城。经过思考,开发人员可能提出如下一个解决方案:首先,用户通过Web浏览器(或移动应 用程序)与应用程序进行交互;紧接着,应用程序与数据库引擎进行交互,以保存交易历史记录并跟踪每个 用户的动态;其中,这个应用程序的核心——“业务逻辑”,详细说明了应用程序在各种情况下进行的操作。 为了完善业务逻辑,开发人员必须细致地考虑应用程序所有可能遇到的边界情况,并为这些边界情况设计合0 码力 | 797 页 | 29.45 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112启了深度学习的第三次复兴之路。 1.2.1 浅层神经网络 1943 年,心理学家 Warren McCulloch 和逻辑学家 Walter Pitts 根据生物神经元(Neuron) 结构,提出了最早的神经元数学模型,称为 MP 神经元模型。该模型的输出?(?) = ℎ(?(?)),其中?(?) = ∑ ?? ? , ?? ∈ {0,1},模型通过?(?)的值来完成输出值的预测,如图 感知机模型 预览版202112 1.2 神经网络发展简史 5 图 1.6 Frank Rosenblatt 和 Mark 1 感知机① 图 1.7 Mark 1 感知机网络结构② 1969 年,美国科学家 Marvin Minsky 等人在出版的《Perceptrons》一书中指出了感知 机等线性模型的主要缺陷,即无法处理简单的异或 XOR 等线性不可分问题。这直接导致 等并行加速芯片训练模型参数。如围棋程序 AlphaGo Zero 在 64 块 GPU 上从 零开始训练了 40 天才得以超越所有的 AlphaGo 历史版本;自动网络结构搜索算法使用了 800 块 GPU 同时训练才能优化出较好的网络结构。 目前普通消费者能够使用的深度学习加速硬件设备主要来自 NVIDIA 的 GPU 显卡, 图 1.12 例举了从 2008 年到 2017 年 NVIDIA0 码力 | 439 页 | 29.91 MB | 1 年前3
机器学习课程-温州大学-01机器学习-引言计算机视觉技术等 安防 中国 2011年 D轮融资 估值40亿美元 8 科大讯飞 智能语音技术 综合 中国 1999年 上市 市值108亿美元 9 Automation Anywhere 自然语言处理技术、非结构化数据认知 企业管理 美国 2003年 B轮融资 估值68亿美元 10 IBM Watson(IBM沃森) 深度学习、智适应学习技术 计算机 美国 1911年 上市 市值1198亿美元 11 松鼠AI “过拟合”的问题。 为此,我们再原有基础上加上用于控制模型复杂度的正则项(Regularizer),得到结构最小化准 则。具体定义是: 其中,?(?)代表对模型复杂度的惩罚。模型越复杂,?(?)越大,模型越简单,?(?)就越小。?是 一个正的常数,也叫正则化系数,用于平衡经验风险和模型复杂度。 一般来说,结构风险小的模型需要经验风险和模型复杂度同时小,因此对训练数据和测试数据 都能有较好的拟合。 机器学习的概念-损失函数 的目录,这样在之后的使用过程 中减少一些莫名的错误。 Python 的环境的安装 54 Python 的主要数据类型 ⚫字符串 ⚫整数与浮点数 ⚫布尔值 ⚫日期时间 ⚫其它 55 Python 的数据结构 ⚫列表(list) 用来存储一连串元素的容器,列表用[ ]来表示,其中元素的类型可不相同。 ⚫元组(tuple) 元组类似列表,元组里面的元素也是进行索引计算。列表里面的元素的值可以修改,而元组0 码力 | 78 页 | 3.69 MB | 1 年前3
机器学习课程-温州大学-15深度学习-GAN中的多层感知机 为了使整个网络可微,拿掉了CNN 中的池化层 将全连接层以全局池化层替代以减轻计算量。 1.生成式深度学习简介 5 自编码(AE)结构图 1.生成式深度学习简介 6 变分自编码(VAE)结构图 1.生成式深度学习简介 7 变分自编码(VAE)生成图像 1.生成式深度学习简介 8 03 GAN 的应用 01 生成式深度学习简介 02 为了取得游戏胜利,这两个游戏参与者需要不断优 化, 各自提高自己的生成能力和判别能力,这个学 习优化过程就是寻找二者之间的一个纳什均衡。 GAN的理论与实现模型 2. GAN的理论与实现模型 14 生成式对抗网络(GAN)结构图 2. GAN的理论与实现模型 15 GAN的学习方法 GAN的理论与实现模型 首先, 在给定生成器 G 的情况下, 我们考虑最优化判别器 D. 2. GAN的理论与实现模型 16 (1)CGAN--条件生成对抗网络,为了防止训练崩塌将前置条件加入输入数据。 图 条件生成对抗网络的结构 2. GAN的理论与实现模型 19 GAN的衍生模型 GAN的理论与实现模型 (2)DCGAN--深度卷积生成对抗网络,提出了能稳定训练的网络结构, 更易 于工程实现。 图 深度卷积生成对抗网络的结构 2. GAN的理论与实现模型 20 GAN的衍生模型 GAN的理论与实现模型0 码力 | 35 页 | 1.55 MB | 1 年前3
全连接神经网络实战. pytorch 版. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1 基本网络结构 11 2.2 使用 cuda 来训练网络 13 3 更完善的神经网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pytorch 的,我也开始转战 pytorch。 pytorch 其实更为简单,只是很多教程会一次性给出过多内容,导致读者难以区分什么是必要 的,什么是非必要的。这构成了我写这本书的初衷——从基础到模型结构的步步递进。我们不会 一次性给出一大堆可选择的内容导致学习变得复杂化,而是用到什么就讲什么。本书不可避免要 参考 [2] 的讲解方式,但我们对讲解顺序和内容,以及程序代码都做了大量的改进。说了那么多, 设置 target_transf orm。 前两节的源码参见 chapter1.py。 2. 构建神经网络 2.1 基本网络结构 11 2.2 使用 cuda 来训练网络 13 本章描述如何构建神经网络模型。 2.1 基本网络结构 我们定义神经网络的结构。在 pytorch 中要想使用神经网络,需要继承 nn.Module: c l a s s NeuralNetwork (nn0 码力 | 29 页 | 1.40 MB | 1 年前3
机器学习课程-温州大学-01深度学习-引言计算机视觉技术等 安防 中国 2011年 D轮融资 估值40亿美元 8 科大讯飞 智能语音技术 综合 中国 1999年 上市 市值108亿美元 9 Automation Anywhere 自然语言处理技术、非结构化数据认知 企业管理 美国 2003年 B轮融资 估值68亿美元 10 IBM Watson(IBM沃森) 深度学习、智适应学习技术 计算机 美国 1911年 上市 市值1198亿美元 11 松鼠AI 的目录,这样在之后的使用过程 中减少一些莫名的错误。 Python 的环境的安装 55 Python 的主要数据类型 ⚫字符串 ⚫整数与浮点数 ⚫布尔值 ⚫日期时间 ⚫其它 56 Python 的数据结构 ⚫列表(list) 用来存储一连串元素的容器,列表用[ ]来表示,其中元素的类型可不相同。 ⚫元组(tuple) 元组类似列表,元组里面的元素也是进行索引计算。列表里面的元素的值可以修改,而元组 字典dict也叫做关联数组,用大括号{ }括起来,在其他语言中也称为map,使用键-值( key-value)存储,具有极快的查找速度,其中key不能重复。 57 Python控制流 ⚫顺序结构 ⚫分支结构 ⚫循环结构 ⚫break、continue和pass ⚫列表生成式 58 Python函数 ⚫调用函数 调用内置函数 ⚫定义函数 def 函数名(): 函数内容0 码力 | 80 页 | 5.38 MB | 1 年前3
Keras: 基于 Python 的深度学习库. . . . . . . . . . . . . . . . . . . . . . . . 28 3.3.6.1 保存/加载整个模型(结构 + 权重 + 优化器状态) . . . . . . . . . 28 3.3.6.2 只保存/加载模型的结构 . . . . . . . . . . . . . . . . . . . . . . . . 29 3.3.6.3 只保存/加载模型的权重 Python 代码中,这 些代码紧凑,易于调试,并且易于扩展。 1.3 快速开始:30 秒上手 Keras Keras 的核心数据结构是 model,一种组织网络层的方式。最简单的模型是 Sequential 顺 序模型,它是由多个网络层线性堆叠的栈。对于更复杂的结构,你应该使用 Keras 函数式 API, 它允许构建任意的神经网络图。 Sequential 顺序模型如下所示: from 3.2.3 所有的模型都可调用,就像网络层一样 利用函数式 API,可以轻易地重用训练好的模型:可以将任何模型看作是一个层,然后通过 传递一个张量来调用它。注意,在调用模型时,您不仅重用模型的结构,还重用了它的权重。 x = Input(shape=(784,)) # 这是可行的,并且返回上面定义的 10-way softmax。 y = model(x) 快速开始 18 这种方式0 码力 | 257 页 | 1.19 MB | 1 年前3
共 47 条
- 1
- 2
- 3
- 4
- 5













