动手学深度学习 v2.0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 537 12.7 参数服务器 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 540 12.7.1 . . . . . . . . . . . . . . . . . 758 16.4 选择服务器和GPU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 758 16.4.1 选择服务器 . . . . . . . . . . . . . . . . . . . . . . . . 到问 题的答案。 Discussions7 6 https://discuss.d2l.ai/ 7 https://discuss.d2l.ai/t/2086 8 目录 安装 我们需要配置一个环境来运行 Python、Jupyter Notebook、相关库以及运行本书所需的代码,以快速入门并 获得动手学习经验。 安装 Miniconda 最简单的方法就是安装依赖Python 30 码力 | 797 页 | 29.45 MB | 1 年前3微博在线机器学习和深度学习实践-黄波
+WeiPS 样本生成和特征处理 1.配置化 2.多标签样本 3.支持高维HASH 训练预处理 1.标签选择 2.标签UDF 3.样本过滤 4.特征过滤 模型训练 1.支持回归和分类 2.支持LR、FM、 DeepFM等模型 3.支持SGD 、 FTRL 、 Adagrad等优化算法 模型评估 1.独立模型评估 2.配置化 3.UI展示 3 在线机器学习-实时模型训练 Serving PS Traing PS Traing Model System Predict Score Sample Data worker worker worker 3 在线机器学习-参数服务器 serving serving serving server server server server server worker worker worker PSscheduler PSserver HA Fault tolerance checkpoint Local HDFS Param Server System Model Serving System 3 在线机器学习-参数服务器 • 参数规模 • 支持百亿特征维度,千亿参数 • 模型版本 • 多模型多版本:多组实验并行执行,提高实验迭代效率 • 在线版本切换:基于ZK的版本感知机制,动态进行版本切换,实现BASE0 码力 | 36 页 | 16.69 MB | 1 年前3Keras: 基于 Python 的深度学习库
. 35 3.3.18 如何在 Keras 中使用 HDF5 输入? . . . . . . . . . . . . . . . . . . . . . . . 35 3.3.19 Keras 配置文件保存在哪里? . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.3.20 如何在 Keras 开发过程中获取可复现的结果? . 2 从一个后端切换到另一个后端 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 14.3 keras.json 详细配置 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 14.4 使用抽象 Keras 后端编写新代码 Keras 遵循减少认知困难的最佳实践:它提供一致且简单的 API,将常见用例所需的用户 操作数量降至最低,并且在用户错误时提供清晰和可操作的反馈。 • 模块化。模型被理解为由独立的、完全可配置的模块构成的序列或图。这些模块可以以尽 可能少的限制组装在一起。特别是神经网络层、损失函数、优化器、初始化方法、激活函 数、正则化方法,它们都是可以结合起来构建新模型的模块。 • 易扩展性。新0 码力 | 257 页 | 1.19 MB | 1 年前3TensorFlow on Yarn:深度学习遇上大数据
⼿动指定机器很繁琐� • 端⼝冲突� • 机器负载不均� TensorFlow使用现状及痛点 • ⼿动分发训练样本� • ⼿动拉取训练模型� TensorFlow使用现状及痛点 • 多⼈多服务器使用混乱,计算资源如何划分?� • 没有GPUs集群资源管理和调度(内存、CPU、GPU、 端⼝),集群资源负载不均� • 训练数据⼿动分发,训练模型⼿动保存� • 进程遗留问题,需要⼿动杀死� 作业进程的资源隔离� Yarn能解决什么问题:� TensorFlow on Yarn设计 • 同时支持单机和分布式TensorFlow程序� • 支持GPU资源管理和调度� • 不再需要⼿动配置CluserSpec信息,仅需要设置work 和ps的数量� • 训练数据和训练模型基于HDFS统⼀存储� • 作业训练结束自动回收work、ps和Tensorboard进程� • 训练效果和性能没有损失� Yarn系统架构图:� TensorFlow on Yarn技术细节揭秘 Yarn支持CPU调度 vs GPU调度:� CPU GPU 每个NodeManager配置可用CPU核心 数量 每个NodeManager配置可用GPU卡数 量 ResourceManager统计计数并按数量 分配 ResourceManager统计计数并按数量 分配 作业必须占用CPU资源 作业可以不需要GPU资源0 码力 | 32 页 | 4.06 MB | 1 年前3PyTorch OpenVINO 开发实战系列教程第一篇
����������������������������������������������������������������������������� 5 1.4.1 PyCharm 的安装与配置 �������������������������������������������������������������������������������������������������� torchtext、针对计算机视觉的 torchvision、针对语音处理 的 torchaudio,这些库支持快速模型训练与演示应用,可以 帮助开发者快速搭建原型演示。此外在移动端支持、模型部署 的压缩、量化、服务器端云化部署、推理端 SDK 支持等方面 Pytorch 也在不断的演化改进。 在操作系统与 SDK 支持方面,Pytorch 从最初的单纯支持 Python 语言到如今支持 Python/C++/Java 其中第一行表示导入 pytorch 的包支持,第二行表示版本查询, 第三行是执行结果(GPU 版本)。 现在很多开发者喜欢使用 Ubuntu 开发系统,在 Ubuntu 系统 下如下正确安装与配置 Pytorch,第一步同样是安装 python 语言依赖包 Python3.6,主要是执行一系列的安装命令行,具 体步骤如下: 1. 导入第三方软件仓库 sudo add-apt-repository0 码力 | 13 页 | 5.99 MB | 1 年前3【PyTorch深度学习-龙龙老师】-测试版202112
命令行,输入“nvcc - V”,即可打印当前 CUDA 的版本信息,如图 1.29 所示,如果命令无法识别,则说明安装 失败。同时也可以从系统环境变量 Path 中找到 CUDA 10.1 的路径配置,如图 1.28 所示。 图 1.27 CUDA 安装界面-3 图 1.28 CUDA 安装结果测试-1 图 1.29 CUDA 安装结果测试-2 1.6.3 PyTorch pillow pandas - i https://pypi.tuna.tsinghua.edu.cn/simple 国内使用 pip 命令安装时,可能会出现下载速度缓慢甚至连接断开的情况,需要配置 国内的 pip 源,只需要在 pip install 命令后面带上“-i 源地址”参数即可。上述命令即使用 了清华大学的 pip 源。 1.6.4 常用编辑器安装 使用 Python Text、PyCharm 和 VS Code 等综合 IDE 开发中大型 项目。本书推荐使用 PyCharm 编写和调试,使用 VS Code 交互式开发,这两者都可以免费 使用,用户自行下载安装,并配置好 Python 解释器即可。限于篇幅,这里不再赘述。 预览版202112 第 1 章 人工智能绪论 22 1.7 源代码下载 本书配套的源代码和课件等学习资料可以通过0 码力 | 439 页 | 29.91 MB | 1 年前3AI大模型千问 qwen 中文文档
vLLM,构建一个与 OpenAI API 兼容的 API 服务十分简便,该服务可以作为实现 OpenAI API 协议的服 务器进行部署。默认情况下,它将在 http://localhost:8000 启动服务器。您可以通过 --host 和 --port 参数 来自定义地址。请按照以下所示运行命令: python -m vllm.entrypoints.openai.api_server \ --model[--use_lora␣ �→True] [--q_lora True] 为您的模型指定 ,为您的数据指定 ,并为您的 Deepspeed 配置指定 。如果您使用 LoRA 或 Q-LoRA,只需根据您的需求添加 --use_lora True 或 --q_lora True 。这是开始微调的最简单方式。如果您想 默认设置。在命令行中, 您可以通过传入参数 -m 和 -d 来分别指定模型路径和数据路径。您还可以通过传入参数 --deepspeed 来 指定 Deepspeed 配置文件。我们为您提供针对 ZeRO2 和 ZeRO3 的两种配置文件,您可以根据需求选择其中 之一。在大多数情况下,我们建议在多 GPU 训练中使用 ZeRO3,但针对 Q-LoRA,我们推荐使用 ZeRO2。 有一系列需要调节的超参数。您可以向程序传递 0 码力 | 56 页 | 835.78 KB | 1 年前3李东亮:云端图像技术的深度学习模型与应用
n 峰值时会达到1500 QPS SACC2017 检测-人脸检测/人形检测 场景多样、人脸小、位置边缘 本页图片均来自公开摄像头 SACC2017 检测-人脸检测/人形检测 手机 服务器 可缩小尺寸 240P 720P CPU ARM(千元机) E5-2630 时间 50ms 120ms GPU 2-5ms(K40) SACC2017 图像技术的三个核心难点>>小、快、准 传输、存储压力 多任务串联 GPU服务框架-图像特点 通用计算(Caffe/Tensorflow/Mxnet) SACC2017 GPU服务框架 人形检测 人脸识别 100台-> 10台服务器 300QPS/台(4*k40) 轮询结果 SACC2017 SACC20170 码力 | 26 页 | 3.69 MB | 1 年前3《TensorFlow 快速入门与实战》6-实战TensorFlow验证码识别
Turing test to tell Computers and Humans Apart,简称CAPTCHA),俗称验证码,是一种区分用户是 计算机或人的公共全自动程序。在CAPTCHA测试中,作为服务器的计算机会自动生成一 个问题由用户来解答。这个问题可以由计算机生成并评判,但是必须只有人类才能解答。 由于计算机无法解答CAPTCHA的问题,所以回答出问题的用户就可以被认为是人类。 一种常用0 码力 | 51 页 | 2.73 MB | 1 年前3从推荐模型的基础特点看大规模推荐类深度学习系统的设计 袁镱
算法 1. ⾼性能 2. 效果⽆ 损的优化 � Feature 1(基本特点) � Feature 2(数据的时空 特点) � Feature3(机器学习 的特点) 训练框架—基于参数服务器架构的分布式训练框架 TB级模型 分⽚ 存储/更新 百TB数据 分⽚训练 Feature 1: 动态空间 Feature 2.1:短时间内只有部分item和user 被命中,只有部分参数被⽤到0 码力 | 22 页 | 6.76 MB | 1 年前3
共 20 条
- 1
- 2