《TensorFlow 2项目进阶实战》2-快速上手篇:动⼿训练模型和部署服务TensorFlow 2 项目实战进阶 扫码试看/订阅 《TensorFlow 2 项目进阶实战》视频课程 快速上手篇:动⼿训练模型和部署服务 • TensorFlow 2 开发环境搭建 • 使用 tf.keras.datasets 加载数据 • 使用 tf.data.Dataset 加载数据 • 使用 tf.keras.Model 管理模型 • Fashion MNIST 数据集介绍0 码力 | 52 页 | 7.99 MB | 1 年前3
AI大模型千问 qwen 中文文档3 Qwen 1.2 快速开始 本指南帮助您快速上手 Qwen1.5 的使用,并提供了如下示例:Hugging Face Transformers 以及 ModelScope 和 vLLM 在部署时的应用实例。 1.2.1 Hugging Face Transformers & ModelScope 要快速上手 Qwen1.5,我们建议您首先尝试使用 transformers 进行推理。请确保已安装了 model.generate( model_inputs.input_ids, max_new_tokens=512, streamer=streamer, ) 1.2.2 使用 vLLM 部署 要部署 Qwen1.5,我们建议您使用 vLLM。vLLM 是一个用于 LLM 推理和服务的快速且易于使用的框架。以 下,我们将展示如何使用 vLLM 构建一个与 OpenAI API 兼容的 API AVX、AVX2 和 AVX512 加速支持。此 外,它还提供了 2、3、4、5、6 以及 8 位量化功能,以加快推理速度并减少内存占用。对于大于总 VRAM 容量的大规模模型,该库还支持 CPU+GPU 混合推理模式进行部分加速。本质上,llama.cpp 的用途在于运行 GGUF(由 GPT 生成的统一格式)模型。欲了解更多详情,请参阅官方 GitHub 仓库。以下我们将演示如何 使用 llama.cpp0 码力 | 56 页 | 835.78 KB | 1 年前3
阿里云上深度学习建模实践-程孟力推理: Ring All-reduc同步训练 [HybridBackend/SOK] 特征选择 [VariationalDropout] 通信优化 [GRPC++] 实时训练 [增量更新] 混合精度 [bf16] 工程优化: 千亿特征优化 模型蒸馏 AVX/SSE优化 Graph优化 [User Graph去重] 内存Allocate优化 ParallelStringOp [split/type 多模态预训练 Vit based 下游任务: 视频分类 视频打标签 推荐模型特征 解决方案: 小样本学习 小样本结构化模型 在线预测服务(EAS) • 一键部署 • 多模型 • 蓝绿部署 • 弹性扩缩 • 推理优化 ML Frameworks ML Service (PaaS) AI Service (SaaS) 机器学习框架(PAI-TensorFl AI SaaS服务(OCR、语音识别、推荐系统、金融风控、疾病预测等) Infrastructure PAI平台(Platform of Artificial Intelligence) • 一键部署、弹性扩缩 • 多框架、多语言 • 推理优化Blade • 多维度监控+报警 • 自定义镜像 • 全托管+半托管 • 分布式训练优化 • 超大资源池 智能标注 可视化建模(Designer)0 码力 | 40 页 | 8.51 MB | 1 年前3
动手学深度学习 v2.0. . . . . . . . . . . . . . . . 504 12.1.2 混合式编程 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 506 12.1.3 Sequential的混合式编程 . . . . . . . . . . . . . . . . . . . . . 载的PDF访问,也可以作为网站在互联网上访问。目前还没有完全适合这些需求的工具和工作流程,所以我 们不得不自行组装。我们在 16.5节 中详细描述了我们的方法。我们选择GitHub来共享源代码并允许编辑,选 择Jupyter记事本来混合代码、公式和文本,选择Sphinx作为渲染引擎来生成多个输出,并为论坛提供讨论。 虽然我们的体系尚不完善,但这些选择在相互冲突的问题之间提供了一个很好的妥协。我们相信,这可能是 第一本使用这种集成工作流程出版的书。 ,这让每个程序员轻易掌握了它。 1.6 深度学习的成功案例 人工智能在交付结果方面有着悠久的历史,它能带来用其他方法很难实现的结果。例如,使用光学字符识别 的邮件分拣系统从20世纪90年代开始部署,毕竟,这是著名的手写数字MNIST数据集的来源。这同样适用于 阅读银行存款支票和对申请者的信用进行评分。系统会自动检查金融交易是否存在欺诈。这成为许多电子商 务支付系统的支柱,如PayPal、0 码力 | 797 页 | 29.45 MB | 1 年前3
13. 杨赛赛-基于深度学习的多维时间序列预测在数据机房中的应用捕获简单线性关系,模型 简单 ⚫ 代表算法有AR, ARIMA 基于深度学习的 时间序列预测 ⚫ 利用多维时间序列之间的 信息 ⚫ 对变周期序列,多维空间 依赖序列预测较弱 ⚫ 代表算法有RNN,LSTM 混合多维时间序列预测 ⚫ 提取多维序列之间更加复杂 的关系 ⚫ 提取维度之间空间依赖关系, 长短期依赖关系 ⚫ 算法有LSTNet,TPA-LSTM 多维时间序列预测方法解决机房温度预测 对数据包含的信息提取能力越来越强 算法的对比 LSTM LSTNet • 橙色线代表模型预测温度值 • 蓝色线代表真实温度值 测试结果:RMSE:0.3度 R^2:90% 测试结果:RMSE:0.25度 R^2:97% 模型部署和自动更新 4. 后续工作 结合温度预测模型对空调进行节能控制 ⚫ 利用温度预测模型实现强化学习节能控制 • 强化学习探索策略的制定 • 强化学习模拟实验环境 项目数据及源代码地址: http://uee0 码力 | 17 页 | 2.49 MB | 1 年前3
亚马逊AWSAI Services OverviewGigabit 深度学习框架 – MXNet 概述 MXNet • 节省以及资源效率 • 工程中廉价的GPUs、较小的内存以及网络的限制 • 速度 • 线性的扩展能力 • 简单 • 混合了声明式(declarative)和命令式()代码的特点 为什么选择 MXNet ? MXNet: 可扩展的深度学习框架 MXNet 框架的特点 命令式 NDArray API 声明式 Symbolic customized board Drone Realtime detection and tracking on TX1 ~10 frame/sec with 640x480 resolution 处处可部署 Beyond BlindTool by Joseph Paul Cohen, demo on Nexus 4 Fit the core library with all dependencies0 码力 | 56 页 | 4.97 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112章 自定义数据集 15.1 精灵宝可梦数据集 15.2 自定义数据集加载流程 15.3 宝可梦数据集实战 15.4 迁移学习 15.5 Saved_model 15.6 模型部署 15.7 参考文献 预览版202112 人工智能绪论 我们需要的是一台可以从经验中学习的机器。 −阿兰·图灵 1.1 人工智能 信息技术是 继承获得的优良基因。但是由于 Lua 语言使用人群较少,Torch 一直未能获得主流应用。 ❑ MXNet 由华人陈天奇和李沐等人开发,是亚马逊公司的官方深度学习框架。采用了 命令式编程和符号式编程混合方式,灵活性高,运行速度快,文档和案例也较为丰 富。 ❑ Keras 是一个基于 Theano 和 TensorFlow 等框架提供的底层运算而实现的高层框架, 提供了大量快速训练、测试网络的高层接口。对于常见应用来说,使用 年才发布,但是由于精良紧凑的接口设计, PyTorch 在学术界获得了广泛好评。在 PyTorch 1.0 版本后,原来的 PyTorch 与 Caffe2 进行了合并,弥补了 PyTorch 在工业部署方面的不足。 目前来看,PyTorch 和 TensorFlow 框架是业界使用最为广泛的两个深度学习框架, TensorFlow 在工业界拥有完备的解决方案和用户基础,但是 TensorFlow0 码力 | 439 页 | 29.91 MB | 1 年前3
房源质量打分中深度学习应用及算法优化-周玉驰LSTM 2019 KE.COM ALL COPYRIGHTS RESERVED 22 DNN 2019 KE.COM ALL COPYRIGHTS RESERVED 23 深度学习模型结构 混合模型:DNN + RNN Deep neural networks (DNN) - 全连接的多层感知机 - BatchNormalization - 激活层(RELU) - dropout正则化 ALL COPYRIGHTS RESERVED 46 总结&思考 AI选房解决的是房地产领域的TopN排序问题 AI选房采用了DNN + RNN的混合网络结构 - DNN,静态数据;RNN,时序数据 - DNN+RNN的混合模型,提供了静态数据+时序数据的解决方案 模型输出值并不能直接适用于业务,需要做一些转换 - 为了便于经纪人理解和指导经纪人, 采用分数映射和雷达图两种方式0 码力 | 48 页 | 3.75 MB | 1 年前3
从推荐模型的基础特点看大规模推荐类深度学习系统的设计 袁镱for Distributed Training Dense参数,每次 都⽤,快速收敛 Sparse参数,随数 据变化,收敛度差 异⼤ 基于动态阈值 的稀疏化压缩 float16压缩 特点 混合压缩 ⽅案 效果 ~-90% -50% 训练速度提升 10%-30% 在线推理服务成本⾼,上线模型可以变⼩么?---模型压缩 模型的⼤⼩由什么决定? Key + embedding values 变⻓Embedding 特征出现次数少,⽤1个float 结合show/click,有效果提升 2. 更少的key: group lasso key级别的稀疏化 3. 更短的values a) 混合精度: float16+int8+int4 b) 量化压缩,1bit或2bit 优点:与优化器⽆关 缺点:1. 只适合低频特征多的场景 2. 变⻓编码,不利于性能优化0 码力 | 22 页 | 6.76 MB | 1 年前3
Keras: 基于 Python 的深度学习库及的次数位居第二。Keras 还被大型科学组织的研究人员采用,特别是 CERN 和 NASA。 2.3 Keras 可以轻松将模型转化为产品 与任何其他深度学习框架相比,你的 Keras 模型可以轻松部署在更广泛的平台上: • 在 iOS 上,通过 Apple’s CoreML(苹果为 Keras 提供官方支持)。这里有一个教程。 • 在安卓上,通过 TensorFlow Android runtime,例如:Not =None, bias_constraint=None) 深度方向的可分离 2D 卷积。 可分离的卷积的操作包括,首先执行深度方向的空间卷积(分别作用于每个输入通道),紧 接一个将所得输出通道混合在一起的逐点卷积。depth_multiplier 参数控制深度步骤中每个输 入通道生成多少个输出通道。 直观地说,可分离的卷积可以理解为一种将卷积核分解成两个较小的卷积核的方法,或者 作为 Inception0 码力 | 257 页 | 1.19 MB | 1 年前3
共 25 条
- 1
- 2
- 3













