Visdom可视化Visdom可视化 主讲人:龙良曲 TensorBoard? TensorboardX ▪ pip install tensorboardX TensorboardX Visdom from Facebook Step 1. install Step2. run server damon Step2. run server damon install from source lines:0 码力 | 17 页 | 1.47 MB | 1 年前3
如何利用深度学习提高高精地图生产的自动化率-邹亮0 码力 | 34 页 | 56.04 MB | 1 年前3
QCon2018北京-基于深度学习的视频结构化实践-姚唐仁《基于深度学习的视频结构化实践》 七牛云 AI实验室首席架构师/姚唐仁� • 围绕海量数据提供创新的云服务,帮助客户缩短想法到产品的距离 • 创立6年,每年超过300%的业绩增长 • 已完成5轮融资,累计超过20亿 • 长期服务70多万企业用户和开发者 • 文件数超过2000亿,每日新增文件20亿 • 覆盖全球300个节点 • 覆盖金融、公安、广电媒体、互联网等行业 视觉-最重要的信息感知 2017中国网络视频用户情况 ����2017������������� 传统视频摘要 vs AI视频结构化 内容不完整 依赖经验 实时性差 时效性差 识别范围广 效率高 可迭代 创新基础 传统手工摘要 AI视频结构化 视频结构化场景 视频分解 基础模型要素 ��1�01:02:03-01:10:05� ��1����� �� �� ������ ��PA� ������ 3 4 5 6 ���L ������ ��PA� ����� ���L ��������� ������L 大规模视频训练框架 结构化策略 ���� ������ ���� ���� 主题分类-特征提取 DPN SENet ResNeXt NASNet 主题分类-模型训练 模型融合 a) Early fusion0 码力 | 39 页 | 38.01 MB | 1 年前3
PyTorch OpenVINO 开发实战系列教程第一篇�������������������� 11 概述 大家好,本章是主要介绍一下深度学习框架 Pytorch 的的历史与发展,主要模 块构成与基础操作代码演示。重点介绍 Pytorch 的各个组件、编程方式、环境 搭建、基础操作代码演示。本章对有 Pytorch 开发经验的读者来说可以直接跳 过;对初次接触 Pytorch 的读者来说,通过本章学习认识 Pytorch 框架,搭建 好 Pytorch torchtext、针对计算机视觉的 torchvision、针对语音处理 的 torchaudio,这些库支持快速模型训练与演示应用,可以 帮助开发者快速搭建原型演示。此外在移动端支持、模型部署 的压缩、量化、服务器端云化部署、推理端 SDK 支持等方面 Pytorch 也在不断的演化改进。 在操作系统与 SDK 支持方面,Pytorch 从最初的单纯支持 Python 语言到如今支持 Python/C++/Java 以实现大多数的模型结构搭建与生成。 2)torch.utils 包,里面主要包括训练模型的输入数据处理类、 pytorch 自带的模型库、模型训练时候可视化支持组件、检查 点与性能相关的组件功能。重要的类有数据集类(Dataset), 数据加载类 (DataLoader)、自定义编程的可视化支持组件 tensorboard 相关类。 3)torch 开头的一些包与功能,主要包括支持模型导出功能 的 torch.onnx0 码力 | 13 页 | 5.99 MB | 1 年前3
机器学习课程-温州大学-13深度学习-TransformerTransformer摆脱了人工标注数据集的缺陷,模型在质 量上更优、更易于并行化,所需训练时间明显更少 ◼ Transformer通过成功地将其应用于具有大量和有限训 练数据的分析,可以很好地推广到其他任务 ◼ Transformer,它完全基于注意力机制, 完全不用重复 和卷积,因而这些模型在质量上更优,同时更易于并 行化,并且需要的训练时间明显更少。 ◼ Transformer出现以后,迅速取代了RNN系列变种,跻 12 Transformer Transformer —— 大力出奇迹的起点 • 在Transformer提出之后,大模型的基础模 型架构基本形成,注意力机制代替卷积神 经网络称为主流基础模型组件 – 有利于模型向更大的参数量扩展 – Transformer有兼容多模态信息的天生优势特 性,这有力地丰富了大模型的应用场景。 参数少 速度快 效果好 13 2.Transformer的工作流程 首先将这个模型看成是一个黑箱操作。在机器翻译中,就 是输入一种语言,输出另一种语言。 15 2.Transformer的工作流程 那么拆开这个黑箱,我们可以看到它是由编码组件、解码组件和它们之间的 连接组成。 16 2.Transformer的工作流程 编码组件部分由一堆编 码器(encoder)构成 (论文中是将6个编码 器叠在一起)。解码组 件部分也是由相同数量 (与编码器对应)的解 码器(decoder)组成0 码力 | 60 页 | 3.51 MB | 1 年前3
动手学深度学习 v2.02 读取数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 3.2.3 初始化模型参数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.2.4 定义模型 . . . 定义模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 3.3.4 初始化模型参数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.3.5 定义损失函数 . . 3 整合所有组件 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 3.6 softmax回归的从零开始实现 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 3.6.1 初始化模型参数 .0 码力 | 797 页 | 29.45 MB | 1 年前3
AI大模型千问 qwen 中文文档max_new_tokens 参数则用于设置响应的最大长度。此 外,通过 tokenizer.batch_decode() 函数对响应进行解码。关于输入部分,上述的 messages 是一个 示例,展示了如何格式化对话历史记录和系统提示。默认情况下,如果您没有指定系统提示,我们将直接使 用 You are a helpful assistant. 作为系统提示。 1.3.2 流式输出 借助 TextStreamer �→safetensors=True) 接下来,您需要准备数据以进行校准。您需要做的就是将样本放入一个列表中,其中每个样本都是一段文 本。由于我们直接使用微调数据来进行校准,所以我们首先使用 ChatML 模板对其进行格式化。例如: data = [] for msg in messages: msg = c['messages'] text = tokenizer.apply_chat_template(msg, tokenize=False �→token_id))) 接下来,你需要准备数据以进行校准。你需要做的就是将样本放入一个列表中,其中每个样本都是文本。由 于我们直接使用微调数据来进行校准,所以我们首先使用 ChatML 模板来格式化它。例如: [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content":0 码力 | 56 页 | 835.78 KB | 1 年前3
阿里云上深度学习建模实践-程孟力杨熙 阿里巴巴-计算平台-PAI 个性化推荐 视频理解 智能对话系统 图像检索 更多场景 OCR识别 人脸核身 智能风控 自动驾驶 语音助手 • • • 优势: 效果 显著超越 传统模型(线性层模型 / 树模型 / SVM模型 / … ) 深度学习应用场景 沙漠 湖泊 旅行 深度学习应用主要的挑战: 2.模型效果优 化困难 3.工程优化复 杂 4.数据获取困 标注速度慢 ✗ 标注成本高 ✗ 样本分布不均匀 ✗ 隐私保护 • 多个环节 • 多种模型 ✗ 海量参数 ✗ 海量数据 从FM到DeepFM rt 增 加了10倍怎么优化? 2.模型效果优 化困难 1.方案复杂 Data Model Compute Platform 要求: 准确: 低噪声 全面: 同分布 模型选型: 容量大 计算量小 训练推理: 高qps, 低rt 实人认证: 卡证识别 + 人脸检测 + 活体检测 + 人脸 识别 … 模型构建: 问题: ✗ 方案复杂周期长/见效慢 ✗ 细节多难免踩坑 解决方案: 标准化 标准化模型库 标准化解决方案 1.方案复杂 图像 搜索 推荐 语音 视频理解 NLP 广告 CNN RNN GNN MLP Tensorflow PyTorch Parameter Server0 码力 | 40 页 | 8.51 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112础要求较少的,读者在学习本书的过程中会自然而然地了解算法的相关背景知识,体会到知 识是为了解决问题而生的,避免陷入为了学习而学习的窘境。 尽管作者试图将读者的基础要求降到最低,但是人工智能不可避免地需要使用正式化的 数学符号推导,其中涉及到少量的概率与统计、线性代数、微积分等数学知识,一般要求读 者对这些数学知识有初步印象或了解即可。比起理论基础,读者需要有少量的编程经验,特 别是 Python 语言编程经 模型装配、训练与测试 8.3 模型保存与加载 8.4 自定义类 8.5 模型乐园 8.6 测量工具 8.7 可视化 8.8 参考文献 第 9 章 过拟合 9.1 模型的容量 9.2 过拟合与欠拟合 9.3 数据集划分 9.4 模型设计 9.5 正则化 9.6 Dropout 9.7 数据增强 9.8 过拟合问题实战 9.9 参考文献 第 卷积神经网络 10.1 全连接网络的问题 10.2 卷积神经网络 10.3 卷积层实现 10.4 LeNet-5 实战 10.5 表示学习 10.6 梯度传播 10.7 池化层 10.8 BatchNorm 层 预览版202112 10.9 经典卷积网络 10.10 CIFAR10 与 VGG13 实战 10.11 卷积层变种 10.120 码力 | 439 页 | 29.91 MB | 1 年前3
机器学习课程-温州大学-03深度学习-PyTorch入门你已知道autograd包,nn包依赖autograd 包来定义模型并求导.一个nn.Module包含各个层和一个forward(input)方法,该 方法返回output。 典型的神经网络 28 神经网络关键组件及相互关系 3. 神经网络 29 PyTorch构建网络工具 torch.nn Module Linear Conv* *norm *Aative *Loss functional0 码力 | 40 页 | 1.64 MB | 1 年前3
共 61 条
- 1
- 2
- 3
- 4
- 5
- 6
- 7













