Keras: 基于 Python 的深度学习库padding='valid') 对于时序数据的最大池化。 参数 • pool_size: 整数,最大池化的窗口大小。 • strides: 整数,或者是 None。作为缩小比例的因数。例如,2 会使得输入张量缩小一半。如 果是 None,那么默认值是 pool_size。 • padding: "valid" 或者 "same" (区分大小写)。 输入尺寸 尺寸是 (batch_size, steps, features) data_format=None) 对于空域数据的最大池化。 参数 • pool_size: 整数,或者 2 个整数元组,(垂直方向,水平方向)缩小比例的因数。(2,2)会 把输入张量的两个维度都缩小一半。如果只使用一个整数,那么两个维度都会使用同样的 窗口长度。 • strides: 整数,整数元组或者是 None。步长值。如果是 None,那么默认值是 pool_size。 • padding: 3D(空域,或时空域)数据的最大池化。 参数 • pool_size: 3 个整数的元组,缩小(维度 1,维度 2,维度 3)比例的因数。(2, 2, 2) 会把 3D 输入张量的每个维度缩小一半。 • strides: 3 个整数的元组,或者是 None。步长值。 • padding: "valid" 或者 "same"(区分大小写)。 • data_format: 一个字符串,channels_last0 码力 | 257 页 | 1.19 MB | 1 年前3
阿里云上深度学习建模实践-程孟力粗排/精排 策略[类目打散、流量控制、…] 实时采集后端日志 PAI-REC 配置中心 AB实验 实验工具 拉取配置 监控报警 Prometheus Grafana 读取metric 消息队列(datahub/kafka) PAI-REC平台 自动化降级 负载均衡 灰度发布 超时控制 平台支持 日志SLS 在线存储 Hologres/OTS BE Redis PAI平台(Platform of Artificial Intelligence) • 一键部署、弹性扩缩 • 多框架、多语言 • 推理优化Blade • 多维度监控+报警 • 自定义镜像 • 全托管+半托管 • 分布式训练优化 • 超大资源池 智能标注 可视化建模(Designer) 分布式训练(DLC) 在线服务(EAS) 生态市场 开发者工具 • CLI • PAIFlow0 码力 | 40 页 | 8.51 MB | 1 年前3
动手学深度学习 v2.0= 1) =0.1306 . (2.6.4) 换句话说,尽管使用了非常准确的测试,患者实际上患有艾滋病的几率只有13.06%。正如我们所看到的,概 率可能是违反直觉的。 患者在收到这样可怕的消息后应该怎么办?很可能,患者会要求医生进行另一次测试来确定病情。第二个测 试具有不同的特性,它不如第一个测试那么精确,如 表2.6.2所示。 表2.6.2: 条件概率为P(D2 | H) 条件概率 要将输出视为概率,我们必须保证在任何数据上的输出都是非负的且总和为1。此外,我们需要一个训练的目 标函数,来激励模型精准地估计概率。例如,在分类器输出0.5的所有样本中,我们希望这些样本是刚好有一 半实际上属于预测的类别。这个属性叫做校准(calibration)。 社会科学家邓肯·卢斯于1959年在选择模型(choice model)的理论基础上发明的softmax函数正是这样做的: sof 构建一个具有对角线边缘的图像X。 1. 如果将本节中举例的卷积核K应用于X,会发生什么情况? 2. 如果转置X会发生什么? 3. 如果转置K会发生什么? 2. 在我们创建的Conv2D自动求导时,有什么错误消息? 3. 如何通过改变输入张量和卷积核张量,将互相关运算表示为矩阵乘法? 4. 手工设计一些卷积核。 1. 二阶导数的核的形式是什么? 2. 积分的核的形式是什么? 3. 得到d次导数的最小核的大小是多少?0 码力 | 797 页 | 29.45 MB | 1 年前3
机器学习课程-温州大学-02-数学基础回顾-1.CS229-LinearAlgebra2 转置 3.3 对称矩阵 3.4 矩阵的迹 3.5 范数 3.6 线性相关性和秩 3.7 方阵的逆 3.8 正交阵 3.9 矩阵的值域和零空间 3.10 行列式 3.11 二次型和半正定矩阵 3.12 特征值和特征向量 3.13 对称矩阵的特征值和特征向量 4.矩阵微积分 4.1 梯度 4.2 黑塞矩阵 4.3 二次函数和线性函数的梯度和黑塞矩阵 4.4 最小二乘法 ,并定义为: (注意索引 中的变化)。可以看出,对于任何非奇异 , 虽然这是一个很好的“显式”的逆矩阵公式,但我们应该注意,从数字上讲,有很多更有效的方法来计算 逆矩阵。 3.11 二次型和半正定矩阵 给定方矩阵 和向量 ,标量值 被称为二次型。 写得清楚些,我们可以看到: 注意: 第一个等号的是因为是标量的转置与自身相等,而第二个等号是因为是我们平均两个本身相等的量。 由 此,我们可以得出结论,只有 ),并且通常将所有正定矩阵的集合表示为 。 对于所有向量 ,对称矩阵 是半正定(positive semidefinite ,PSD)。 这写为 (或 仅 ),并且所有半正定矩阵的集合通常表示为 。 同样,对称矩阵 是负定(negative definite,ND),如果对于所有非零 ,则 表示为 (或 )。 类似地,对称矩阵 是半负定(negative semidefinite,NSD),如果对于所有0 码力 | 19 页 | 1.66 MB | 1 年前3
机器学习课程-温州大学-12机器学习-关联规则,I3链接到I1。 (这里根据项集的数量排序成I2、I1、I3) Null l2:1 l1:1 l3:1 ② 再次扫描数据库并检查事务。检查第一个事务并找出其中的项集。计数 最大的项集在顶部,计数较低的下一个项集,以此类推。这意味着树的 分支是由事务项集按计数降序构造的。 35 3.FP-Growth算法 构建FP树 1.考虑到根节点为空(null)。 2. T1:I1、I2 中, {I2,I1,I3,I4:1},{I2,I3,I4:1}。因此,将I4作为后缀, 前缀路径将是{I2,I1,I3:1},{I2,I3:1}。这形成了条件 模式基。 3.将条件模式基视为事务数据库,构造FP树。这 将包含{I2:2,I3:2},不考虑I1,因为它不满足最小支 持计数。 Null l4:1 l2:5 l1:4 l3:1 l5:1 l3:3 l4:1 l5:1 I1,I2.I5 2 I2,I4 3 I2,I3 4 I1,I2,I4 5 I1,I3 6 I2,I3 7 I1,I3 8 I1,I2,I3,I5 9 I1,I2,I3 事务数据库的建立 扫描事务数据库得到频繁项目集F I1 I2 I3 I4 I5 6 7 6 2 2 定义minsup=20%,即最小支持度为2,重新排列F I2 I1 I3 I4 I5 7 6 6 2 20 码力 | 49 页 | 1.41 MB | 1 年前3
机器学习课程-温州大学-08深度学习-深度卷积神经网络在最后一个卷积层后有两个全连接层,分别有4096个输出。 这两个巨大的全连接层拥有将近 1GB 的模型参数。 由于 早期 GPU 显存有限,原版的 AlexNet 采用了双数据流设计, 使得每个 GPU 只负责存储和计算模型的一半参数。 幸运 的是,现在GPU显存相对充裕,所以我们现在很少需要跨 GPU 分解模型 (因此,我们的AlexNet模型在这方面与原始 论文稍有不同)。 LeNet (左), AlexNet (右)0 码力 | 32 页 | 2.42 MB | 1 年前3
机器学习课程-温州大学-05深度学习-深度学习实践2正则化,与?2正则化不同的是,被应用的方 式不同,dropout也会有所不同,甚至更适用于不同的输入范围 keep-prob=1(没有dropout) keep-prob=0.5(常用取值,保留一半神经元) 在训练阶段使用,在测试阶段不使用! Dropout正则化 13 正则化 Early stopping代表提早停止训练神经网络 Early stopping的优点是,只运行 一次梯度下降,你可以找出0 码力 | 19 页 | 1.09 MB | 1 年前3
复杂环境下的视觉同时定位与地图构建结合边跟踪或直接稠密跟踪 • 融合其它传感器 • 目前只能实现实时的稀疏重建 • 加速稠密深度恢复 • 采用RGB-D相机 视觉SLAM技术发展趋势 • 缓解特征依赖 • 结合边的跟踪 • 直接图像跟踪或半稠密跟踪 • 朝实时稠密三维重建发展 • 单目实时三维重建 • 多目实时三维重建 • 基于深度相机的实时三维重建 • 多传感器融合 • 结合IMU、GPS、深度相机、光流计、里程计等 未来工作展望0 码力 | 60 页 | 4.61 MB | 1 年前3
机器学习课程-温州大学-15深度学习-GAN为训练准则并且可 以使用反向传播进行训练,大大改善了生成式模型的训练难度和训练效率。 c. GAN 在生成样本的实践中,生成的样本易于人类理解 。 (2)GAN 除了对生成式模型的贡献,对于半监督学习也有启发 。 4. GAN的思考与前景 32 GAN的思考与前景 GAN的缺陷 GAN 虽然解决了生成式模型的一些问题 ,并且对其他方法的发展具有一定 的启发意义 ,但是 GAN并不完美0 码力 | 35 页 | 1.55 MB | 1 年前3
机器学习课程-温州大学-05机器学习-机器学习实践2正则化,与?2正则化不同的是,被应用的方 式不同,dropout也会有所不同,甚至更适用于不同的输入范围 keep-prob=1(没有dropout) keep-prob=0.5(常用取值,保留一半神经元) 在训练阶段使用,在测试阶段不使用! Dropout正则化 26 正则化 Early stopping代表提早停止训练神经网络 Early stopping的优点是,只运行 一次梯度下降,你可以找出0 码力 | 33 页 | 2.14 MB | 1 年前3
共 19 条
- 1
- 2













