动手学深度学习 v2.0网络和总线 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 525 12.4.7 更多延迟 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 525 12.5 多GPU训练 习中,我们需要定义模型的优劣程度的度量,这个度量在大多 数情况是“可优化”的,这被称之为目标函数(objective function)。我们通常定义一个目标函数,并希望优 化它到最低点。因为越低越好,所以这些函数有时被称为损失函数(loss function,或cost function)。但这 只是一个惯例,我们也可以取一个新的函数,优化到它的最高点。这两个函数本质上是相同的,只是翻转一 Medicine),一些专业的 注释员会检查每一篇在PubMed中被索引的文章,以便将其与Mesh中的相关术语相关联(Mesh是一个大约 有28000个标签的集合)。这是一个十分耗时的过程,注释器通常在归档和标记之间有一年的延迟。这里,机器 学习算法可以提供临时标签,直到每一篇文章都有严格的人工审核。事实上,近几年来,BioASQ组织已经举 1.3. 各种机器学习问题 25 办比赛14来完成这项工作。 搜索 有时0 码力 | 797 页 | 29.45 MB | 1 年前3
亚马逊AWSAI Services Overviewird MXNet 演示: https://35.161.116.218/notebooks/money_predict.ipynb 将文本转化为 生活化语音 47 种语音 24 种语言 低延迟、实时 全托管 Polly: 生活化的语音服务 Voice Quality & Pronunciation 1. 自动化、精准的文本处理 2. 智能化的且易于理解 3. 将语义加入文本当中0 码力 | 56 页 | 4.97 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112dtype=torch.float16) # 创建 tf.float16 低精度张量 a = a.type(torch.double) # 转换为高精度张量 Out[16]: tensor(3.1406, dtype=torch.float64) 进行类型转换时,需要保证转换操作的合法性,例如将高精度的张量转换为低精度的张量 时,可能发生数据溢出隐患: In [17]: a = = torch.tensor(123456789, dtype=torch.int32) a.type(torch.int16) # 转换为低精度整型 Out[17]: tensor(-13035, dtype=torch.int16) 布尔类型与整型之间相互转换也是合法的,是比较常见的操作: In [18]: a = torch.tensor([True, False]) in是输入的特征向量长度,?out是网络输出的向量长度。对于分类问题,网络模型通过把 长度为?in输入特征向量?变换到长度为?out的输出向量?,这个过程可以看成是特征降维的 过程,把原始的高维输入向量?变换到低维的变量?。特征降维(Dimensionality Reduction)在 机器学习中有广泛的应用,比如文件压缩(Compression)、数据预处理(Preprocessing)等。最 常见的降维算法有主成分分析法(Principal0 码力 | 439 页 | 29.91 MB | 1 年前3
AI大模型千问 qwen 中文文档等扩展功能纳入其中。赶快去探索更多高级 用法,并将它们应用于 Qwen 模型中吧! 1.7 AWQ 对于量化模型,我们推荐使用 AWQ 结合 AutoAWQ 。AWQ 即激活感知权重量化,是一种针对 LLM 的低比 特权重量化的硬件友好方法。而 AutoAWQ 是一个易于使用的工具包,专门用于 4 比特量化模型。相较于 FP16,AutoAWQ 能够将模型的运行速度提升 3 倍,并将内存需求降低至原来的 1/3。AutoAWQ 最近,在社区中本地运行 LLM 变得越来越流行,其中使用 llama.cpp 处理 GGUF 文件是一个典型的例子。通 过 llama.cpp,您不仅可以为自己的模型构建 GGUF 文件,还可以进行低比特量化操作。在 GGUF 格式下,您 可以直接对模型进行量化而无需校准过程,或者为了获得更好的量化效果应用 AWQ scale,亦或是结合校准 数据使用 imatrix 工具。在这篇文档中,我们将展示最简便的模型量化方法,以及如何在对 文件的路径(此处我将其置于 models/7B 目录下)。请记住,在运行命令之前,需要先创建这个 目录。通过这种方式,你已经为你的 fp16 模型生成了一个 GGUF 文件,接下来你需要根据实际需求将其量 化至低比特位。以下是一个将模型量化至 4 位的具体示例:” ./quantize models/7B/qwen1_5-7b-chat-fp16.gguf models/7B/qwen1_5-7b-chat-q4_00 码力 | 56 页 | 835.78 KB | 1 年前3
经典算法与人工智能在外卖物流调度中的应用5 总结—外卖订单智能调度要解决的核心问题 借助机器学习与深度学习实现,骑士到店时 间、等餐时间、骑士到用户时间、交付用户 时间等配送全流程节点时间预估 动态规划最优配送路线,且合理并单,以最 低的配送成本最大化满足用户配送体验。 建立配送成本及用户体验的评估模型,并基于多 场景多维度权衡骑士和待分配订单匹配程度 依据评价模型得出的订单和骑士匹配程 度,全局最优进行整体调度分配 借助机器学习实现精准的配送时长预估,预 在线学习 优化 模型 加载 数据 仿真 调度 评估 结果 计算 偏导 求得 梯度 24 智能调度系统对顾客等待时间的优化 数据分析和技术是减少肥尾从而 提高用户体验的最大贡献者,降 低客户流失的可能性 顾客等待时间 订 单 的 百 分 比 平均等待时间显著缩短 0% 5% 10% 15% 20% 25% 30% 35% 0 20 40 60 80 100 1200 码力 | 28 页 | 6.86 MB | 1 年前3
机器学习课程-温州大学-05机器学习-机器学习实践也就是离其期望值的距离。方差越大,数 据的分布越分散,如右图右列所示。 偏差Bias: 描述的是预测值(估计值)的期望与真实 值之间的差距。偏差越大,越偏离真实数 据,如右图第二行所示。 低方差 高方差 高 偏 差 低 偏 差 29 偏差和方差 总体误差 方差 偏差 2 最 优 模 型 复 杂 度 模型复杂度 误 差 方差、偏差和模型复杂度 右图是模型复杂度与误差的关系,一 般来说,随着模型复杂度的增加,方0 码力 | 33 页 | 2.14 MB | 1 年前3
机器学习课程-温州大学-11机器学习-降维越大越好,模型的性能会随着特征的增加先上升后下降。 6 1.降维概述 什么是降维? 降维(Dimensionality Reduction)是将训练数据中的样本(实例)从高 维空间转换到低维空间,该过程与信息论中有损压缩概念密切相 关。同时要明白的,不存在完全无损的降维。 有很多种算法可以完成对原始数据的降维,在这些方法中,降维 是通过对原始数据的线性变换实现的。 7 1.降维概述 t-SNE(TSNE)将数据点之间的相似度转换为概率。原始空间中的相似度由 高斯联合概率表示,嵌入空间的相似度由“学生t分布”表示。 虽然Isomap,LLE和variants等数据降维和可视化方法,更适合展开单个连 续的低维的manifold。但如果要准确的可视化样本间的相似度关系,如对于 下图所示的S曲线(不同颜色的图像表示不同类别的数据),t-SNE表现更好 。因为t-SNE主要是关注数据的局部结构。 110 码力 | 51 页 | 3.14 MB | 1 年前3
机器学习课程-温州大学-12机器学习-关联规则FP树(FP-Tree)是由数据库的初始项集组成的树状结构。 FP树的目的是挖掘最 频繁的模式。FP树的每个节点表示项集的一个项。 根节点表示null,而较低的节点表示项集。在形成树的同时,保持节点与较 低节点(即项集与其他项集)的关联。 30 3.FP-Growth算法 算法步骤 FP-growth算法的流程为: 首先构造FP树,然后利用它来挖掘频繁项集。 在构造FP树时,需要对数据集扫描两遍, FP树(FP-Tree)是由数据库的初始项集组成的树状结构。 FP树的目的是挖掘最 频繁的模式。FP树的每个节点表示项集的一个项。 根节点表示null,而较低的节点表示项集。在形成树的同时,保持节点与较 低节点(即项集与其他项集)的关联。 32 3.FP-Growth算法 算法案例 设置支持度阈值为50%,置信度阈值为60% 交易编号 项目 T1 I1,I2,I3 T2 I2,I3,I40 码力 | 49 页 | 1.41 MB | 1 年前3
13. 杨赛赛-基于深度学习的多维时间序列预测在数据机房中的应用低效的 冷却装 置 服务主 机工作 发热 影响空 调耗电 量原因 建筑材料 隔热和散 热性能差 不够智能 的空调控 制系统 空调缺乏对整个环境 的全面感知 空调对温度的控制 存在延迟 多 维 感 知 温 度 预 测 控 制 2. 研究目标 对数据机房的温度进行预测 ⚫ 根据机房的历史运行数据变化预测未来 XX 分钟机房的温度值,从而实现空调的预测控制。 风机状态 服务负载0 码力 | 17 页 | 2.49 MB | 1 年前3
超大规模深度学习在美团的应用-余建平数据有序性:数据乱序会导致样本穿越的现象 • Log Join框架 双流拼接框架,通过组合方式支持多流拼接 基于Event Time的Window机制拼接方式 基于Low Watermark解决流乱序、流延迟等流式常 见问题 流式拼接框架 • Low Watermark机制 定义了流式数据的时钟,不可逆性 Smooth low watermark:异常数据时间跳变 流式拼接 • Checkpoint解决不重不丢问题0 码力 | 41 页 | 5.96 MB | 1 年前3
共 30 条
- 1
- 2
- 3













