《Efficient Deep Learning Book》[EDL] Chapter 2 - Compression Techniquesunpack them when decoding the data. Now let’s run the code for the range [-10, 10], incrementing by 2.5 each time and find the quantized values for b = 3. First, let’s create our x. # Construct the array quantize. # We slightly exceed 10.0 to include 10.0 in our range. x = np.arange(-10.0, 10.0 + 1e-6, 2.5) print(x) We do this using NumPy’s arange method, which allows us to generate a range of floating endpoint defined, along with a step value. This returns the following result. [-10. -7.5 -5. -2.5 0. 2.5 5. 7.5 10. ] Now let’s quantize x. # Quantize the entire array in one go. x_q = quantize(x0 码力 | 33 页 | 1.96 MB | 1 年前3
机器学习课程-温州大学-08机器学习-集成学习 ??∈?2 ?? 1.5,2.5,3.5,4.5,5.5,6.5,7.5,8.5,9.5 ? ? = min ?1 ??∈?1 (?? − ?1)2 + min ?2 ??∈?2 (?? − ?2)2 ? = 1.5,?1 = 1 , ?2 = 2,3, … , 10 , ?1 = 5.56, ?2 = 7.5 s 1.5 2.5 3.5 4.5 5.5 6.5 7 5 0.07 -0.11 ?6 ? = x<2.5 -0.15 0.04 ? ?, ?3 ? =0.47 ? ?, ?4 ? =0.30 ? ?, ?5 ? =0.23 ?6 ? = ?5 ? + ?6 ? =?1 ? +…+?6 ? = ? ?, ?6 ? =0.17 x<6.5 x<4.5 8.95 x<3.5 x<2.5 5.63 6.83 6.56 5.82 (7)不断地重复(1)~(6)步骤直到达到规定的迭代次数或者收敛为止。 40 4.LightGBM 样本序号 样本的特征取值 样本的一阶导 样本的二阶导 ? 1 2 3 4 5 6 7 8 ?? 0.1 2.1 2.5 3.0 3.0 4.0 4.5 5.0 ?? 0.01 0.03 0.06 0.05 0.04 0.7 0.6 0.07 ℎ? 0.2 0.04 0.05 0.02 0.08 0.02 0.030 码力 | 50 页 | 2.03 MB | 1 年前3
动手学深度学习 v2.02.4.4 链式法则 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 2.5 自动微分 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 用d2l.plt,因为导入语句 from matplotlib import pyplot as plt已标记为保存到d2l包中。 def set_figsize(figsize=(3.5, 2.5)): #@save """设置matplotlib的图表大小""" use_svg_display() d2l.plt.rcParams['figure.figsize'] = figsize xlim=None, ylim=None, xscale='linear', yscale='linear', fmts=('-', 'm--', 'g-.', 'r:'), figsize=(3.5, 2.5), axes=None): """绘制数据点""" if legend is None: legend = [] set_figsize(figsize) axes = axes if axes0 码力 | 797 页 | 29.45 MB | 1 年前3
机器学习课程-温州大学-02-数学基础回顾-2.CS229-Prob机器学习课程复习材料-概率论 概率论复习和参考 1. 概率的基本要素 1.1 条件概率和独立性 2. 随机变量 2.1 累积分布函数 2.2 概率质量函数 2.3 概率密度函数 2.4 期望 2.5 方差 2.6 一些常见的随机变量 3. 两个随机变量 3.1 联合分布和边缘分布 3.2 联合概率和边缘概率质量函数 3.3 联合概率和边缘概率密度函数 3.4 条件概率分布 3.5 给出。作为上述情况的特例,请注意,随机变量本身的期望值,是通过令 得到 的,这也被称为随机变量的平均值。 性质: 对于任意常数 , 对于任意常数 , (线性期望): 对于一个离散随机变量 , 2.5 方差 随机变量 的方差是随机变量 的分布围绕其平均值集中程度的度量。形式上,随机变量 的方差定义 为: 使用上一节中的性质,我们可以导出方差的替代表达式: 其中第二个等式来自期望的线性,以及0 码力 | 12 页 | 1.17 MB | 1 年前3
Keras: 基于 Python 的深度学习库. . . . . . . . . . . . . . . . . . 6 2.4 Keras 支持多个后端引擎,并且不会将你锁定到一个生态系统中 . . . . . . . . . . 6 2.5 Keras 拥有强大的多 GPU 和分布式训练支持 . . . . . . . . . . . . . . . . . . . . . . 6 2.6 Keras 的发展得到深度学习生态系统中的关键公司的支持 GPU。 • Google TPU,通过 TensorFlow 后端和 Google Cloud。 • OpenGL 支持的 GPU, 比如 AMD, 通过 PlaidML Keras 后端。 2.5 Keras 拥有强大的多 GPU 和分布式训练支持 • Keras 内置对多 GPU 数据并行的支持。 • 优步的 Horovod 对 Keras 模型有第一流的支持。 • Keras 模型可以被转换为 keras.backend.hard_sigmoid(x) 分段的 sigmoid 线性近似。速度比 sigmoid 更快。 • 如果 x < -2.5,返回 0。 • 如果 x > 2.5,返回 1。 • 如果 -2.5 <= x <= 2.5,返回 0.2 * x + 0.5。 参数 • x: 一个张量或变量。 返回 一个张量。 tanh keras.backend.tanh(x)0 码力 | 257 页 | 1.19 MB | 1 年前3
PyTorch OpenVINO 开发实战系列教程第一篇最终根据得到的参数就可以绘制回归直线。那这个计算图到底 是怎么样的?答案就是很简单的数学知识,最常见的直线方程 如下: (公式 1-1) 假设我们有二维的坐标点数据集: x: 1,2,0.5,2.5,2.6,3.1 y: 3.7,4.6,1.65,5.68,5.98,6.95 我们通过随机赋值初始 k、b 两个参数,根据公式 1-1,x 会 生成一个对应输出 ,它跟真实值 y 之间的差值我们称为损失, 中通过 代码来验证我们上面的理论解释了。Pytorch 提供了丰富的函 数组件可以帮助我们快速搭建线性回归模型并完成训练预测。 第一步:构建数据集 x = np.array([1,2,0.5,2.5,2.6,3.1], dtype=np.float32). reshape((-1, 1)) PyTorch + OpenVINO 开发实战系列教程 第一篇 10 y = np.array([30 码力 | 13 页 | 5.99 MB | 1 年前3
PyTorch Release NotesOpenUCX 1.12.0 ‣ GDRCopy 2.3 ‣ TensorBoard 2.8.0 ‣ TensorRT 8.2.3 ‣ Torch-TensorRT 1.1.0a0 ‣ SHARP 2.5 ‣ APEX ‣ Nsight Compute 2022.1.0.0 ‣ Nsight Systems 2021.5.2.53 ‣ TensorBoard 2.8.0 PyTorch Release OpenMPI 4.1.2rc4+ ‣ OpenUCX 1.12.0 ‣ GDRCopy 2.3 ‣ TensorRT 8.2.2 ‣ Torch-TensorRT 1.1.0a0 ‣ SHARP 2.5 ‣ APEX ‣ Nsight Compute 2022.1.0.0 ‣ Nsight Systems 2021.3.2.4 ‣ TensorBoard 2.8.0 ‣ DALI 1.9 11.0rc1 ‣ GDRCopy 2.3 ‣ NVIDIA HPC-X 2.9 ‣ TensorRT 8.2.1.8 ‣ Torch-TensorRT 1.1.0a0 ‣ SHARP 2.5 ‣ APEX ‣ Nsight Compute 2021.3.0.13 ‣ Nsight Systems 2021.3.2.4 ‣ TensorBoard 2.7.0 ‣ DALI 1.80 码力 | 365 页 | 2.94 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版2021125 深度学习框架 1.6 开发环境安装 1.7 参考文献 第 2 章 回归问题 2.1 神经元模型 2.2 优化方法 2.3 线性模型实战 2.4 线性回归 2.5 参考文献 第 3 章 分类问题 3.1 手写数字图片数据集 3.2 模型构建 3.3 误差计算 3.4 真的解决了吗 3.5 非线性模型 3.6 表达能力 3 ?2 ∙ sin (?)为例,绘制出?(?)函数及其导数在? ∈ [−1 ,1 ]区间的曲线,如图 2.5 所示,其中蓝色实线为?(?),黄色虚线为 d?(?) d? 。可以看出,函数导数(虚线)为 0 的点即为 ?(?)的驻点,函数的极大值和极小值点均出现在驻点中。 图 2.5 函数及其导数 函数的梯度(Gradient)定义为函数对各个自变量的偏导数(Partial Derivative)组成的向 体的类别也只可能是像猫、狗、天空之类的离散类别值。对于这一类问题,通常把它称为 分类(Classification)问题。 下一章将会挑战分类问题! 预览版202112 2.5 参考文献 11 2.5 参考文献 [1] W. S. McCulloch 和 W. Pitts, “A logical calculus of the ideas immanent in nervous0 码力 | 439 页 | 29.91 MB | 1 年前3
房源质量打分中深度学习应用及算法优化-周玉驰区域竞争力 结合体现竞争力的特征 反映某一距离范围内的竞争力 2019 KE.COM ALL COPYRIGHTS RESERVED 34 指标 • TopN去化率 • N=2.5 * 周成交量 效果评估 32个城市平均值 • TopN去化率:31.7% • 自然去化率:3.8% 去化率(一周平均值) 2019 KE.COM ALL COPYRIGHTS RESERVED0 码力 | 48 页 | 3.75 MB | 1 年前3
keras tutorial75], [0.25, 0.5] ] >>> result = np.dot(input, kernel) >>> result array([[1. , 1.75], [2.5 , 4.25]]) >>> Keras 39 result is the output and it will be passed into the next0 码力 | 98 页 | 1.57 MB | 1 年前3
共 10 条
- 1













