Qcon北京2018-《深度学习在视频搜索领域的实践》-刘尚堃pdf��������������� ������� 目录 1、视频搜索的挑战 %、深度学m在视频内容理解h的应用——召回 3、深度学m在语k搜索h的应用——语k表征 4、深度学m在排序h的应用——g性化表征 视频搜索的挑战 1�����/���——���� 2����/�����——���� 3������——������ ��������������� 1������������0 码力 | 24 页 | 9.60 MB | 1 年前3
深度学习在百度搜索中的工程实践-百度-曹皓0 码力 | 40 页 | 29.46 MB | 1 年前3
动手学深度学习 v2.0. . . . . . . . . . . . . . . . . 375 9.8 束搜索 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 9.8.1 贪心搜索 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 9.8.2 穷举搜索 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378 9.8.3 束搜索 . . . . . . . . . . . . . . . . . . . . . . . . . 注意:如果没有安装unzip,则可以通过运行sudo apt install unzip进行安装。 安装完成后我们可以通过运行以下命令打开Jupyter笔记本(在Window系统的命令行窗口中运行以下命令前, 需先将当前路径定位到刚下载的本书代码解压后的目录): jupyter notebook 9 https://developer.nvidia.com/cuda‐downloads 10 目录 现在可以在W0 码力 | 797 页 | 29.45 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112尽管每天都有深度学习相关算法论文的发布,但是作者相信,深度学习的核心思想和基 础理论是共通的。本书已尽可能地涵盖其中基础、主流并且前沿的算法知识,但是仍然有很 多算法无法涵盖,读者学习完本书后,可以自行搜索相关方向的研究论文或资料,进一步学 习。 深度学习是一个非常前沿和广袤的研究领域,鲜有人士能够对每一个研究方向都有深刻 的理解。作者自认才疏学浅,略懂皮毛,同时也限于时间和篇幅关系,难免出现理解偏差甚 和 Google TPU 等并行加速芯片训练模型参数。如围棋程序 AlphaGo Zero 在 64 块 GPU 上从 零开始训练了 40 天才得以超越所有的 AlphaGo 历史版本;自动网络结构搜索算法使用了 800 块 GPU 同时训练才能优化出较好的网络结构。 目前普通消费者能够使用的深度学习加速硬件设备主要来自 NVIDIA 的 GPU 显卡, 图 1.12 例举了从 2008 年到 是否安装成功呢?通过键盘上的 Windows 键+R 键, 即可调出运行程序对话框,输入“cmd”并回车即打开 Windows 自带的命令行程序 cmd.exe。或者点击开始菜单,输入“cmd”也可搜索到 cmd.exe 程序,打开即可。输入 conda list 命令即可查看 Python 环境已安装的库,如果是新安装的 Python 环境,则列出的 库都是 Anaconda 自带的软件库,如图0 码力 | 439 页 | 29.91 MB | 1 年前3
机器学习课程-温州大学-13深度学习-Transformer两个子层。 Transformer的一个核心特性,在这里 输入序列中每个位置的单词都有自己 独特的路径流入编码器。在自注意力 层中,这些路径之间存在依赖关系。 而前馈(feed-forward)层没有这些依赖 关系。因此在前馈(feed-forward)层时 可以并行执行各种路径。 21 2.Transformer的工作流程 输入序列的每个单词都经过自编码过程。然后,它们各自通过前向传播 被训练好,所以不太可能现 在就出现这个结果。 44 3.Transformer的训练 集束搜索(Bean Search) 贪婪算法只会挑出最可能的那一个单 词,然后继续。而集束搜索则会考虑 多个选择,集束搜索算法会有一个参 数B,叫做集束宽(beam width)。在 这个例子中B=3,这样就意味着集束 搜索不会只考虑一个可能结果,而是 一次会考虑3个,比如对第一个单词有 不同选择的可能性,最后找到in、jane0 码力 | 60 页 | 3.51 MB | 1 年前3
Keras: 基于 Python 的深度学习库save_format='png', follow_links=False, subset=None, interpolation='nearest') 参数 • directory: 目标目录的路径。每个类应该包含一个子目录。任何在子目录树下的 PNG, JPG, BMP, PPM 或 TIF 图像,都将被包含在生成器中。更多细节,详见 此脚本。 • target_size: 整数元组 (height filepath 是 weights.{epoch:02d}-{val_loss:.2f}.hdf5,那么模型被保存 的的文件名就会有训练轮数和验证损失。 参数 • filepath: 字符串,保存模型的路径。 • monitor: 被监测的数据。 • verbose: 详细信息模式,0 或者 1 。 • save_best_only: 如果 save_best_only=True,被监测数据的最佳模型就不会被覆盖。 '/publish/epoch/end/'。采用 HTTP POST ,其中的 data 参数是以 JSON 编码的事件数据字典。 参数 • root: 字符串;目标服务器的根地址。 • path: 字符串;相对于 root 的路径,事件数据被送达的地址。 • field: 字符串;JSON ,数据被保存的领域。 • headers: 字典;可选自定义的 HTTP 的头字段。 11.1.9 LearningRateScheduler0 码力 | 257 页 | 1.19 MB | 1 年前3
AI大模型千问 qwen 中文文档文件。 8 Chapter 1. 文档 Qwen 1.4.2 运行 Qwen 的 GGUF 文件 我们在 Hugging Face 组织中提供了一系列 GGUF 模型,为了找到您需要的模型,您可以搜索仓库名称中包含 -GGUF 的部分。要下载所需的 GGUF 模型,请使用 huggingface-cli(首先需要通过命令 pip install huggingface_hub 安装它): huggingface-cli llama.cpp 9 Qwen 1.4.5 在 LM Studio 使用 GGUF 如果你仍然觉得使用 llama.cpp 有困难,我建议你尝试一下 LM Studio 这个平台,它允许你搜索和运行本地的 大规模语言模型。Qwen1.5 已经正式成为 LM Studio 的一部分。祝你使用愉快! 1.5 Ollama Ollama 帮助您通过少量命令即可在本地运行 LLM。它适用于 MacOS、Linux 接着,我们介绍在 Ollama 使用 Qwen 模型的更多用法 1.5.1 快速开始 访问官方网站 Ollama ”,点击 Download 以在您的设备上安装 Ollama。您还可以在网站上搜索模型,在这里 您可以找到 Qwen1.5 系列模型。除了默认模型之外,您可以通过以下方式选择运行不同大小的 Qwen1.5-Chat 模型: • ollama run qwen:0.5b • ollama0 码力 | 56 页 | 835.78 KB | 1 年前3
超大规模深度学习在美团的应用-余建平自我介绍 2011年硕士毕业于南京大学计算机科学与技术系。毕业后曾在百度凤巢从事机器学习 工程相关的工作,加入美团后,负责超大规模机器学习系统,从无到有搭建起支持千亿 级别规模的深度学习系统,与推荐、搜索、广告业务深度合作,在算法上提供从召回到 排序的全系统优化方案,在工程上提供离线、近线、在线的全流程解决方案。 目录 • 美团超大规模模型场景简介 • 超大规模机器学习MLX MLX平台目标 • 美团超大规模模型场景简介 • 超大规模机器学习MLX MLX平台目标 MLX平台架构 • 模型场景应用 召回模型 排序模型 美团超大规模模型应用场景 美团推荐 美团搜索 美团广告 美团应用场景简介 • 场景特点 亿级的用户,千万级的O2O商品 海量的用户行为,完整的交易闭环 LBS相关的推荐 • 模型特点 百亿级别的训练数据 千亿级别的模型特征 增量训练、避免batch重训带来的资源消耗 关于Online Learning MLX的模型能力 • 支持千亿级特征、千亿级样本 • 支持计算图模式,模型结构灵活多样 支持推荐、搜索、广告场景常用的深度学习模型 FTRL、FM、FFM、WDL、DCN、DeepFM、MTL等 • Optimizer FTRL、AdaGrad、AdaDelta、ADAM、AmsGrad、etc0 码力 | 41 页 | 5.96 MB | 1 年前3
机器学习课程-温州大学-12机器学习-关联规则FP-growth算法以树的形式表示数据库,称为频繁模式树或FP-tree。 此树结构将保持项集之间的关联。数据库使用一个频繁项进行分段。这个片段被称 为“模式片段”。分析了这些碎片模式的项集。因此,该方法相对减少了频繁项集 的搜索。 27 3.FP-Growth算法 FP-growth算法思想 FP-growth算法是基于Apriori原理的,通过将数据集存储在FP(Frequent Pattern)树上发现频繁项集,但不能发现数据之间的关联规则。 不考虑最低节点项I5,因为它没有达到最小支持 计数,因此将其删除。 2.下一个较低的节点是I4。I4出现在两个分支中, {I2,I1,I3,I4:1},{I2,I3,I4:1}。因此,将I4作为后缀, 前缀路径将是{I2,I1,I3:1},{I2,I3:1}。这形成了条件 模式基。 3.将条件模式基视为事务数据库,构造FP树。这 将包含{I2:2,I3:2},不考虑I1,因为它不满足最小支 持计数。 3.FP-Growth算法 4.此路径将生成所有频繁模式的组合:{I2,I4:2}, {I3,I4:2},{I2,I3,I4:2} 5.对于I3,前缀路径将是:{I2,I1:3},{I2:1},这将生 成一个2节点FP树:{I2:4,I1:3},并生成频繁模式: {I2,I3:4},{I1:I3:3},{I2,I1,I3:3}。 6.对于I1,前缀路径是:{I2:4}这将生成一个单节点0 码力 | 49 页 | 1.41 MB | 1 年前3
深度学习在电子商务中的应用1 深度学习在电商搜索和聊天机器人中的应用 探索 SPEAKER / 程进兴 2017年4月 2 3 苏宁国际美国硅谷研究院 苏宁美国硅谷研究院创 建于2013年11月,其宗旨是建立 高科技人才和专利的蓄水池,推 动苏宁持续地创新和转型,为用 户提供简约完美的用户体验。 硅谷研究院由来自云计 算、大数据、人工智能及深度学 习等不同专业背景的工程师、数 据科学家及分析师组成。目前包 曾在甲骨文,雅虎,微软, 沃尔玛实验室等多家公司从事搜索,广告,大数 据分析,机器学习,人工智能应用等方面的研发 工作。在此期间,发表了10多篇相关领域的研究 论文,并有10多项相关领域的专利。 业余爱好: 骑行 个人简介 电子邮箱: jim.cheng@ususing.com 5 议程 • 深度学习与商品搜索 矢量化搜索技术简介 基于词语聚类的矢量化 基于用户会话的矢量化 =》 5岁 目前商品搜索中的一些问题 7 人工智能/深度学习在搜索中的应用:网页/电商搜索 • 基于深度学习的(Query, Document)分数是Google搜索引擎中第3重要的排序信 号 • 亚马逊(Amazon/A9)电子商务搜索引擎中, 深度学习还在实验阶段, 尚未进入生产线。 8 • 搜索数值矢量化 传统搜索基于文字匹配, 商品包含搜索词或者不包含搜索词 利用深度学习技术,0 码力 | 27 页 | 1.98 MB | 1 年前3
共 35 条
- 1
- 2
- 3
- 4













