机器学习课程-温州大学-08机器学习-集成学习LightGBM 3.XGBoost 27 3.XGBoost XGBoost 是大规模并行 boosting tree 的工具, 它是目前最快最好的开源 boosting tree 工具包 ,比常见的工具包快 10 倍以上。XGBoost 和 GBDT 两者都是 boosting 方法,除了工程实现 、解决问题上的一些差异外,最大的不同就是目 标函数的定义。 28 ??? ? = 优势: 1)更快的训练速度 2)更低的内存消耗 3)更好的准确率 4)分布式支持,可快速处理海量数据 37 4.LightGBM LightGBM 的主要改进 LightGBM与XGBoost相比,主要有以下几个改进: • 基于梯度的单边采样算法(Gradient-based One-Side Sampling, GOSS); • 互斥特征捆绑算法(Exclusive Feature0 码力 | 50 页 | 2.03 MB | 1 年前3
动手学深度学习 v2.012.2.2 障碍器与阻塞器 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 511 12.2.3 改进计算 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 511 12.3 自动并行 论坛 与本书相关,我们已经启动了一个论坛,在discuss.d2l.ai4。当对本书的任何一节有疑问时,请在每一节的末 尾找到相关的讨论页链接。 致谢 感谢中英文草稿的数百位撰稿人。他们帮助改进了内容并提供了宝贵的反馈。感谢Anirudh Dagar和唐源将 部分较早版本的MXNet实现分别改编为PyTorch和TensorFlow实现。感谢百度团队将较新的PyTorch实现改 编为P 度。 图1.4.1: 估计一英尺的长度 图1.4.1 说明了这个估计器是如何工作的。16名成年男子被要求脚连脚排成一行。然后将它们的总长度除以16, 得到现在等于1英尺的估计值。这个算法后来被改进以处理畸形的脚——将拥有最短和最长脚的两个人送走, 对其余的人取平均值。这是最早的修剪均值估计的例子之一。 随着数据的收集和可获得性,统计数据真正实现了腾飞。罗纳德·费舍尔(1890‐1962)19对统计理论和在遗传0 码力 | 797 页 | 29.45 MB | 1 年前3
Keras: 基于 Python 的深度学习库是由 Google 开发的一个开源符号级张量操作框架。 • Theano 是由蒙特利尔大学的 LISA Lab 开发的一个开源符号级张量操作框架。 • CNTK 是由微软开发的一个深度学习开源工具包。 将来,我们可能会添加更多后端选项。 14.2 从一个后端切换到另一个后端 如果您至少运行过一次 Keras,您将在以下位置找到 Keras 配置文件: $HOME/.keras/keras 我们会列出当前需要添加的出色的问题和新功能。如果你想要为 Keras 做贡献, 这就是可以开始的地方。 21.5 Pull Requests 合并请求 我应该在哪里提交我的合并请求? 1. Keras 改进与漏洞修复,请到 Keras master 分支。 2. 测试新功能, 例如网络层和数据集,请到 keras-contrib。除非它是一个在 Requests for Con- tributions 的核心部分。如果你觉得你的功能属于 Keras 核 心,你可以提交一个设计文档,来解释你的功能,并争取它(请看以下解释)。 请注意任何有关 代码风格(而不是修复修复,改进文档或添加新功能)的 PR 都会被拒绝。 以下是提交你的改进的快速指南: 1. 如果你的 PR 介绍了功能的改变,确保你从撰写设计文档并将其发给 Keras 邮件列表开始, 以讨论是否应该修改,以及如何处理。这将拯救你于 PR0 码力 | 257 页 | 1.19 MB | 1 年前3
机器学习课程-温州大学-Scikit-learnScikit-learn是基于NumPy、 SciPy和 Matplotlib的开源Python机器学习 包,它封装了一系列数据预处理、机器学习算法、模型选择等工具,是数 据分析师首选的机器学习工具包。 自2007年发布以来,scikit-learn已经成为Python重要的机器学习库了, scikit-learn简称sklearn,支持包括分类,回归,降维和聚类四大机器学 习算法。还包括 符号标记 2.Scikit-learn主要用法 y_train | 训练集标签. y_test | 测试集标签. y | 数据标签. 8 2.Scikit-learn主要用法 导入工具包 from sklearn import datasets, preprocessing from sklearn.model_selection import train_test_split from0 码力 | 31 页 | 1.18 MB | 1 年前3
机器学习课程-温州大学-01机器学习-引言⚫NumPy NumPy是一个用Python实现的科学计算的扩展程序库,包括: 1、一个强大的N维数组对象Array; 2、比较成熟的(广播)函数库; 3、用于整合C/C++和Fortran代码的工具包; 4、实用的线性代数、傅里叶变换和随机数生成函数。numpy和稀疏矩阵运算包scipy 配合使用更加方便。 NumPy(Numeric Python)提供了许多高级的数值编程工具,如:矩阵数据类型、 Python模块-SciPy ⚫SciPy SciPy是构建在NumPy的基础之上的,它 提供了许多的操作NumPy的数组的函数。 SciPy是一款方便、易于使用、专为科学和 工程设计的Python工具包,它包括了统计 、优化、整合以及线性代数模块、傅里叶 变换、信号和图像图例,常微分方差的求 解等 scipy.cluster 向量量化 scipy.constants 数学常量 scipy0 码力 | 78 页 | 3.69 MB | 1 年前3
机器学习课程-温州大学-01深度学习-引言⚫NumPy NumPy是一个用Python实现的科学计算的扩展程序库,包括: 1、一个强大的N维数组对象Array; 2、比较成熟的(广播)函数库; 3、用于整合C/C++和Fortran代码的工具包; 4、实用的线性代数、傅里叶变换和随机数生成函数。numpy和稀疏矩阵运算包scipy 配合使用更加方便。 NumPy(Numeric Python)提供了许多高级的数值编程工具,如:矩阵数据类型、 Python模块-SciPy ⚫SciPy SciPy是构建在NumPy的基础之上的,它 提供了许多的操作NumPy的数组的函数。 SciPy是一款方便、易于使用、专为科学和 工程设计的Python工具包,它包括了统计 、优化、整合以及线性代数模块、傅里叶 变换、信号和图像图例,常微分方差的求 解等 scipy.cluster 向量量化 scipy.constants 数学常量 scipy0 码力 | 80 页 | 5.38 MB | 1 年前3
AI大模型千问 qwen 中文文档1.7 AWQ 对于量化模型,我们推荐使用 AWQ 结合 AutoAWQ 。AWQ 即激活感知权重量化,是一种针对 LLM 的低比 特权重量化的硬件友好方法。而 AutoAWQ 是一个易于使用的工具包,专门用于 4 比特量化模型。相较于 FP16,AutoAWQ 能够将模型的运行速度提升 3 倍,并将内存需求降低至原来的 1/3。AutoAWQ 实现了激活 感知权重量化(AWQ)算法,可用于 LLM chat_response) 1.7.3 使用 AutoAWQ 量化你的模型 如果您希望将自定义模型量化为 AWQ 量化模型,我们建议您使用 AutoAWQ。推荐通过安装源代码来获取 并安装该工具包的最新版本: git clone https://github.com/casper-hansen/AutoAWQ.git cd AutoAWQ pip install -e . 假设你已经基于0 码力 | 56 页 | 835.78 KB | 1 年前3
机器学习课程-温州大学-numpy使用总结NumPy数组(ndarry)对象 03 ufunc函数 04 NumPy的函数库 9 1.1 认识 NumPy 数组对象 >import numpy as np # 导入NumPy工具包 >data = np.arange(12).reshape(3, 4) # 创建一个3行4列的数组 >data array([[ 0, 1, 2, 3], [ 4, 5, 6, 7], [ 80 码力 | 49 页 | 1.52 MB | 1 年前3
机器学习课程-温州大学-14深度学习-Vision Transformer (ViT) 03 模型训练策略 本章目录 01 背景知识 02 模型介绍 04 模型的缺点与改进 05 模型的代码实现 3 1.背景知识 03 模型训练策略 01 背景知识 02 模型介绍 04 模型的缺点与改进 05 模型的代码实现 4 1.背景知识 图片分类的原理 5 2017年google的机器翻译团队在 Transformer(ViT)实际上就 是Transformer的encode网络。 1.背景知识 8 2.模型介绍 03 模型训练策略 01 背景知识 02 模型介绍 04 模型的缺点与改进 05 模型的代码实现 9 模型思路 2.模型介绍 1.图片切分为patch 2.patch转化为embedding 3.位置embedding和tokensembedding相加 W)是图像的高和宽;C是图像通道数;? = ??/?2, 即patch的个数。 2.模型介绍 24 3.模型训练策略 03 模型训练策略 01 背景知识 02 模型介绍 04 模型的缺点与改进 05 模型的代码实现 25 3.模型训练策略 训练策略 模型在Dataset A上预训练,在Dataset B上精调,在Dataset B上评估 26 数据集介绍 在ImageN0 码力 | 34 页 | 2.78 MB | 1 年前3
机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入好一点的嵌入(`not` ,`thou`,`aaron`和`taco`)。我们现在进行下一步(下一个正样本及 其相关的负样本),并再次执行相同的过程。 当我们循环遍历整个数据集多次时,嵌入继续得到改进。然后我们可以停 止训练过程,丢弃`Context`矩阵,并使用`Embeddings`矩阵作为下一个任务 的预训练嵌入。 27 4.GloVe 03 Word2Vec 04 GloVe 面表现出色,然而这些系统较为脆弱,对 数据分布和任务规范的轻微变化非常敏感, 因而使得AI表现更像狭义专家,并非通才。 GPT-2要 解决和优 化的问题 ◼ GPT-2(2019.2)在GPT-1的基础上进行诸多改进,实现执行任务多样性,开始学习在不需要明确监督的情 况下执行数量惊人的任务 ✓ 在GPT-2阶段,OpenAI去掉了GPT-1阶段的有监督微调(fine-tuning),成为无监督模型。 ✓ 大模型GPT-2是一个1 图:GPT-2尚未解决诸多瓶颈问题 存在的问题02: GPT的发展 38 GPT-3(2020.5)取得突破性进展,任务结果难以与人类作品区分开来 ◼ GPT-3对GPT-2追求无监督与零次学习的特征进行了改进 ◼ GPT-3利用了过滤前45TB的压缩文本,在诸多NLP数据集中实现了强大性能 ✓ GPT-3是一个具有1750亿个参数的自回归语言模型,比之前的任何非稀疏语言模型多10倍。对于所有任务(在few-shot设置下测试其0 码力 | 44 页 | 2.36 MB | 1 年前3
共 18 条
- 1
- 2













