Chatbots 中对话式交互系统的分析与应用对话交互的价值:在哪儿/在那儿 • 行业早期,价值待验证 • “能帮我把转化率提升50%吗?” • 需求界定师:砍掉不合实际的需求 • “能不能把我的销售、客服全换成机器人?” • “能不能通过分析上课视频,来解答学生的问题?” • 对话设计师:怎么更优雅地达到目的 • “公交车上你会给老人让座吗?” • 做能做且有价值的事,努力把不能做的事变成可做的 Thanks 爱因互动,欢迎你的加入0 码力 | 39 页 | 2.24 MB | 1 年前3
房源质量打分中深度学习应用及算法优化-周玉驰样本:挂牌满?天的房源 2019 KE.COM ALL COPYRIGHTS RESERVED 11 AI选房建模 成交/带看具有周期性 周期性单位:周 2019年3月每天的成交量和带看量 作业周期性分析 时间选择:周的倍数 2019 KE.COM ALL COPYRIGHTS RESERVED 12 AI选房建模 Y:未来?天能否成交 X:最近?天房源产生的所有行为 样本:挂牌满?天的房源 v1.0 - 初版模型系统概览 • 房源特征 静态特征 时序特征 • 特征处理 特征提取 特征组合 离散化 • 模型预测 XGBoost • 分数映射 房源质量分数 M 2019 KE.COM ALL COPYRIGHTS RESERVED 17 房源特征 6大方向设计了90维特征 静态特征:69维 时序特征:21维 一套房源能否成交同很多因素相关 DNN+RNN 特征建设 2019 KE.COM ALL COPYRIGHTS RESERVED 27 v2.0+:持续优化 0.5% 业主诚意 0.5% 区域竞争力 特征维度 现状分析 房源基本属性 可以完善补充 客户 可以挖掘 市场 可以挖掘 业主 体现不完善 经纪人 考虑完整 性价比 考虑完整 1% 经纬度 1.5% 潜在热度 2019 KE0 码力 | 48 页 | 3.75 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112这是一本面向人工智能,特别是深度学习初学者的书,本书旨在帮助更多的读者朋友了 解、喜欢并进入到人工智能行业中来,因此作者试图从分析人工智能中的简单问题入手,一 步步地提出设想、分析方案以及实现方案,重温当年科研工作者的发现之路,让读者身临其 境式的感受算法设计思想,从而掌握分析问题、解决问题的能力。这种方式也是对读者的基 础要求较少的,读者在学习本书的过程中会自然而然地了解算法的相关背景知识,体会到知 RCNN、SSD、YOLO、 RetinaNet 系列等。 语义分割(Semantic Segmentation) 是通过算法自动分割并识别出图片中的内容,可以 将语义分割理解为像素点的分类问题,分析每个像素点的物体的类别信息,如图 1.16 所 示。常见的语义分割模型有 FCN、U-net、PSPNet、DeepLab 系列等。 预览版202112 1.4 深度学习应用 11 5.2 静态图和动态图 虽然深度学习框架数量众多,但是大体上可以分为两类:基于静态图的和基于动态图 的。基于静态图的代表性框架是 TensorFlow 1,特点是建立计算图过程和实际计算过程是 分开的;PyTorch 是基于动态图的流行框架,特点是计算图的建图过程和计算过程是同时 进行的。 下面以简单的2.0 + 4.0的加法运算为例,介绍静态图和动态图的主要区别。首先介绍 静态图,以 TensorFlow0 码力 | 439 页 | 29.91 MB | 1 年前3
机器学习课程-温州大学-10机器学习-聚类主要的无监督学习方法 6 1.无监督学习方法概述 主要算法 K-means、密度聚类、层次聚类 聚类 主要应用 市场细分、文档聚类、图像分割、图像压缩、聚类分析、特征学习或者词 典学习、确定犯罪易发地区、保险欺诈检测、公共交通数据分析、IT资产 集群、客户细分、识别癌症数据、搜索引擎应用、医疗应用、药物活性预 测…… 7 1.无监督学习方法概述 聚类案例 1.医疗 医生可以使用聚类算法来发现疾病。以甲状 我们搜索一些信息,如在某地的超市,百度将为 我们提供不同的超市的选择。这是聚类的结果, 提供给你的结果就是聚类的相似结果。 11 1.无监督学习方法概述 聚类案例 5.社交网络 比如在社交网络的分析上。已知你朋友的信息, 比如经常发email的联系人,或是你的微博好友、 微信的朋友圈,我们可运用聚类方法自动地给朋 友进行分组,做到让每组里的人们彼此都熟识。 12 2.K-means聚类 簇的质心移动到这个新位置。对所有其他簇重 复相同的步骤。 迭代更新 20 2.K-means聚类 K-means算法流程 优化 上述两个步骤是迭代进行的,直到质心停止移动,即它们不再改变自己的位置,并且成为静态的。一 旦这样做,k-均值算法被称为收敛。 设训练集为:{?(1), ?(2), ?(3), … , ?(?)},簇划分? = {?1, ?2, ⋯ , ??},用?1, ?2, . . . ,0 码力 | 48 页 | 2.59 MB | 1 年前3
微博在线机器学习和深度学习实践-黄波DNN/DeepFM/W&D 负载均衡/统一版本管理/动态加载/批量化机制 特征映射 Embedding 数据处理 异构GPU集群 CNN 业务应用 模型服务 框架 排序模型服务 多媒体分析服务 自然语言分析服务 集群调度层 核心架构层 算法模型层 4 深度学习-分布式模型推理 • 推理性能优化 • 减少计算量: operator fusion/XLA/TVM/prune/float16/quantization 损失函数误差最小: 梯度下降等迭代求解 模型训练 WeiFlow 控制台 实时计算 实时统计,…… 特征计算 微博特征 9点发布,带视频,北 京,奥运,时事新闻 ,高热度…… 批量计算 静态特征,批量统计 ,…… 控制中心 WeiIDE 数据计算 模型 Y=f(x1,x2……,xn) 模型服务 特征服务 微博机器学习平台 灰度系统 3 平台效果 • 成本/效率 建设平台(业务A)0 码力 | 36 页 | 16.69 MB | 1 年前3
Keras: 基于 Python 的深度学习库中,你可以指定自定义的损失函数,通过调用 self.add_loss(loss_tensor) (就像你在 自定义层中一样)。 在子类模型中,模型的拓扑结构是由 Python 代码定义的(而不是网络层的静态图)。这意 味着该模型的拓扑结构不能被检查或序列化。因此,以下方法和属性不适用于子类模型: 模型 41 • model.inputs 和 model.outputs。 • model.to_yaml() __call__(以及 RNN.call)的 constants 关键字参数将「外部」常量传 递给单元。这要求 cell.call 方法接受相同的关键字参数 constants。这些常数可用于调节附 加静态输入(不随时间变化)上的单元转换,也可用于注意力机制。 例子 # 首先,让我们定义一个 RNN 单元,作为网络层子类。 class MinimalRNNCell(keras.layers.Layer): Tensorflow,你应该可以从命令行启动 Tensorflow: tensorboard --logdir=/full_path_to_your_logs 参数 • log_dir: 用来保存被 TensorBoard 分析的日志文件的文件名。 • histogram_freq: 对于模型中各个层计算激活值和模型权重直方图的频率(训练轮数中)。 如果设置成 0 ,直方图不会被计算。对于直方图可视化的验证数据(或分离数据)一定要0 码力 | 257 页 | 1.19 MB | 1 年前3
机器学习课程-温州大学-02深度学习-神经网络的编程基础?? ?? = 1 20 3.静态图与动态图 •动态图:运算与搭建同时进行 •静态图:先搭建图,后运算 根据计算图搭建方式,可将计算图分为动态图和静态图 PyTorch 是支持动态图的,可以在进行运算的同时进行 TensorFlow 是支持静态图的,需要在计算之前,先进行搭 建( TensorFlow 2.X引入了动态图 ) 21 4.静态图与动态图 TensorFlow:先搭建所有的计 TensorFlow:先搭建所有的计 算图之后,再把数据输入进去 PyTorch:动态图的搭建是根据 每一步的计算搭建的 创建图 运行每次迭代 每次迭代中创建图 22 4.静态图与动态图 23 4.向量化 02 梯度下降 01 二分类与逻辑回归 03 计算图 04 向量化 24 4.向量化 非向量化版本的for循环花费了大约718 毫秒,向量化版本花费了大约33毫秒。0 码力 | 27 页 | 1.54 MB | 1 年前3
机器学习课程-温州大学-11机器学习-降维2022年02月 机器学习-降维 黄海广 副教授 2 本章目录 01 降维概述 02 SVD(奇异值分解) 03 PCA(主成分分析) 3 1.降维概述 01 降维概述 02 SVD(奇异值分解) 03 PCA(主成分分析) 4 1.降维概述 维数灾难(Curse of Dimensionality):通常是指在涉及到向量的计算的问题 中,随着维数的增加,计算量呈指数倍增长的一种现象。 上千、甚至上万 个特征。要处理这所有的特征的话,不仅会让训练非常缓慢,还会极大增 加搜寻良好解决方案的困难。这个问题就是我们常说的维数灾难。 5 1.降维概述 维数灾难 维数灾难涉及数字分析、抽样、组合、机器学习、数据挖掘和数据库等诸 多领域。在机器学习的建模过程中,通常指的是随着特征数量的增多,计 算量会变得很大,如特征达到上亿维的话,在进行计算的时候是算不出来 的。有的时候, 通过处理多重共线性消除冗余特征。 降维的缺点: • 由于降维可能会丢失一些数据; • 在主成分分析(PCA)降维技术中,有时需要考虑多少主成分是难以确定的,往往使用经验 法则 12 1.降维概述 13 2.SVD(奇异值分解) 01 降维概述 02 SVD(奇异值分解) 03 PCA(主成分分析) 14 2.SVD(奇异值分解) 奇异值分解 (Singular Value Decomposition,以下简称0 码力 | 51 页 | 3.14 MB | 1 年前3
机器学习课程-温州大学-机器学习项目流程特征工程 数据建模 • 基于性能指标比较几种机 器学习模型 • 对最佳模型执行超参数调 整 • 在测试集上评估最佳模型 • 解释模型结果 • 得出结论 • 数据清理和格式化 • 探索性数据分析(EDA) • 特征工程 • 特征选择 • 网络下载 • 网络爬虫 • 数据库读取 • 开放数据 • …… 7 2.数据清洗 01 机器学习项目流程概述 02 数据清洗 10 探索性数据分析(EDA) 探索性数据分析(EDA)是一个开放式流程,我们制作绘图并计算 统计数据,以便探索我们的数据。 •目的是找到异常,模式,趋势或关系。 这些可能是有趣的(例如, 找到两个变量之间的相关性),或者它们可用于建模决策,例如使 用哪些特征。 •简而言之,EDA的目标是确定我们的数据可以告诉我们什么! 探索性数据分析(EDA) 11 探索性数据分析(EDA) 单变量图显示此变量的分布 单变量图显示此变量的分布 plt.hist()可以显示单变量图,也叫 直方图 12 探索性数据分析(EDA) boxplot :箱型图又称为盒须图、盒式图或箱线图,是一种用作显示一组数据分散情 况资料的统计图。它能显示出一组数据的最大值、最小值、中位数及上下四分位数。 13 探索性数据分析(EDA) IQR = Q3-Q1,即上四分位数与下四分位数之间的 差,也就是盒子的长度。 最小观测值为min0 码力 | 26 页 | 1.53 MB | 1 年前3
《TensorFlow 快速入门与实战》4-实战TensorFlow房价预测前置知识:监督学习(Supervised Learning) 监督学习是机器学习的一种方法,指从训练数据(输入和预期输出)中学到一个模型(函数), 并根据模型可以推断新实例的方法。 函数的输出通常为一个连续值(回归分析)或类别标签(分类)。 训练数据 学习算法 模型 新数据 推断结果 前置知识:监督学习典型算法 • 线性回归(Linear Regression) • 逻辑回归(Logistic Regression) 感知器(Perceptron) • 深度神经网络(DNN) 前置知识:线性回归 在统计学中,线性回归是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变 量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线 性组合。 前置知识:单变量线性回归 理想函数 假设函数 损失值(误差) 前置知识:单变量线性回归 前置知识:梯度下降 232000 3000 539900 1985 299900 1534 314900 1427 198999 1380 212000 1494 242500 训练数据: 多变量房价预测问题:数据分析 面积(平方英尺) 卧室数量(个) 价格(美元) 2104 3 399900 1600 3 329900 2400 3 369000 1416 2 232000 3000 4 5399000 码力 | 46 页 | 5.71 MB | 1 年前3
共 42 条
- 1
- 2
- 3
- 4
- 5













