积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(29)机器学习(29)

语言

全部中文(简体)(28)英语(1)

格式

全部PDF文档 PDF(29)
 
本次搜索耗时 0.063 秒,为您找到相关结果约 29 个.
  • 全部
  • 云计算&大数据
  • 机器学习
  • 全部
  • 中文(简体)
  • 英语
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 经典算法与人工智能在外卖物流调度中的应用

    1.0 外卖订单智能调度要解决的核心问题 7 调度系统算法 1 2 3 4 5 路线规划 • 动态规划最优配送路线,且合理 并单,以最低的配送成本最大化 满足用户配送体验。 • 考虑用户期望时间的TSP问题 • 构建模型综合评估用户体验与配 送成本打分 • 采用动态规划和模拟退火算法等 算法,求得最优路线 1 8 时间预估 用户下单 开始配送 骑士到店 骑士取餐 XGBoost模型 - 采用近似求解算法,找出可能的分裂点,避免选用贪心算法的过高时间复杂度 - 计算采用不同分裂点时,叶子打分函数的增益;并选择增益最高的分裂点,作为新迭代树的最终分裂 节点,构造新的迭代树 - 通过调节迭代树数目、学习倍率、迭代树最大深度、L2正则化参数等进一步避免过拟合 2 获取样本数据 过滤数据 抽取基础特征 组合基础特征,构造组合特征 组合基础特征,构造组合特征 统计基础信息,构造统计特征 在供需失衡之时,实施最有 效的调控手段 5 总结—外卖订单智能调度要解决的核心问题 借助机器学习与深度学习实现,骑士到店时 间、等餐时间、骑士到用户时间、交付用户 时间等配送全流程节点时间预估 动态规划最优配送路线,且合理并单,以最 低的配送成本最大化满足用户配送体验。 建立配送成本及用户体验的评估模型,并基于多 场景多维度权衡骑士和待分配订单匹配程度 依据评价模型得出的订单和骑士匹配程 度,全局最优进行整体调度分配
    0 码力 | 28 页 | 6.86 MB | 1 年前
    3
  • pdf文档 动手学深度学习 v2.0

    . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352 9.4.1 隐马尔可夫模型中的动态规划 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352 9.4.2 双向模型 . . . . . . . . . . . 预处理数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 705 15.1.3 创建数据迭代器 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 706 15.1.4 整合代码 . . . • 多阶段设计。例如,存储器网络 (Sukhbaatar et al., 2015) 和神经编程器‐解释器 (Reed and De Freitas, 2015)。它们允许统计建模者描述用于推理的迭代方法。这些工具允许重复修改深度神经网络的内部状 态,从而执行推理链中的后续步骤,类似于处理器如何修改用于计算的存储器。 • 另一个关键的发展是生成对抗网络 (Goodfellow et al.,
    0 码力 | 797 页 | 29.45 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-10机器学习-聚类

    K-means聚类 K-均值算法(K-means)算法概述 K-means算法是一种无监督学习方法,是最普及的聚类算法,算法使用 一个没有标签的数据集,然后将数据聚类成不同的组。 K-means算法具有一个迭代过程,在这个过程中,数据集被分组成若干 个预定义的不重叠的聚类或子组,使簇的内部点尽可能相似,同时试图保 持簇在不同的空间,它将数据点分配给簇,以便簇的质心和数据点之间的 平方距离之和最小,在 对于上一步聚类的结果,进行平均计算,得出该簇的新的聚类中心。 4. 重复上述两步/直到迭代结束:质心不发生变化。 17 2.K-means聚类 初始化质心 K-means算法流程 首先,初始化称为簇质心的任意点。初始化 时,必须注意簇的质心必须小于训练数据点 的数目。因为该算法是一种迭代算法,接下 来的两个步骤是迭代执行的。 18 2.K-means聚类 K-means算法流程 初始化后,遍历所有数据点,计算所有质心 第三步:移动质心,因为上面步骤中形成的簇 没有优化,所以需要形成优化的簇。为此,我 们需要迭代地将质心移动到一个新位置。取一 个簇的数据点,计算它们的平均值,然后将该 簇的质心移动到这个新位置。对所有其他簇重 复相同的步骤。 迭代更新 20 2.K-means聚类 K-means算法流程 优化 上述两个步骤是迭代进行的,直到质心停止移动,即它们不再改变自己的位置,并且成为静态的。一 旦这样做,k-均值算法被称为收敛。
    0 码力 | 48 页 | 2.59 MB | 1 年前
    3
  • pdf文档 【PyTorch深度学习-龙龙老师】-测试版202112

    则指向函数值减少的方向。利用这一性质,只 需要按照 ?′ = ? − ? ∙ ∇? (2.1) 来迭代更新?′,就能获得越来越小的函数值,其中?用来缩放梯度向量,一般设置为某较小 的值,如 0.01、0.001 等。特别地,对于一维函数,上述向量形式可以退化成标量形式: ?′ = ? − ? ∙ d? d? 通过上式迭代更新?′若干次,这样得到的?′处的函数值?′,总是更有可能比在?处的函数值? 小。 points): # 根据当前的 w,b 参数计算均方差损失 totalError = 0 for i in range(0, len(points)): # 循环迭代所有点 x = points[i, 0] # 获得 i 号点的输入 x y = points[i, 1] # 获得 i 号点的输出 y # [new_b, new_w] 4. 梯度更新 在计算出误差函数在?和?处的梯度后,可以根据式(2.1)来更新?和?的值。通常把对数 据集的所有样本训练一次称为一个 Epoch,共需循环迭代 num_iterations:1000 个 Epoch。 实现如下: def gradient_descent(points, starting_b, starting_w, lr, num_iterations):
    0 码力 | 439 页 | 29.91 MB | 1 年前
    3
  • pdf文档 Keras: 基于 Python 的深度学习库

    categorical_crossentropy, optimizer=keras.optimizers.SGD(lr=0.01, momentum=0.9, nesterov=True)) 现在,你可以批量地在训练数据上进行迭代了: # x_train 和 y_train 是 Numpy 数组 -- 就像在 Scikit-Learn API 中一样。 model.fit(x_train, y_train, epochs=5 random.random((1000, 100)) labels = np.random.randint(2, size=(1000, 1)) # 训练模型,以 32 个样本为一个 batch 进行迭代 model.fit(data, labels, epochs=10, batch_size=32) # 对于具有 10 个类的单输入模型(多分类分类): model = Sequential() 编码 one_hot_labels = keras.utils.to_categorical(labels, num_classes=10) # 训练模型,以 32 个样本为一个 batch 进行迭代 model.fit(data, one_hot_labels, epochs=10, batch_size=32) 3.1.5 例子 这里有几个可以帮助你开始的例子! 在 examples
    0 码力 | 257 页 | 1.19 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-08机器学习-集成学习

    Boosting,自适应增强),其自适应在于:前 一个基本分类器分错的样本会得到加强,加权后的全体样本再次被用来 训练下一个基本分类器。同时,在每一轮中加入一个新的弱分类器,直 到达到某个预定的足够小的错误率或达到预先指定的最大迭代次数。 后一个模型的训练永远是在前一个模型的基础上完成! 12 Adaboost算法 算法思想 • 初始化训练样本的权值分布,每个样本具有相同权重; • 训练弱分类器,如果样本分类正确,则在构造下一个训练集中,它的权值 根据权重1更新样本权重2 根据权重n-1更新样本权重n 强学 习器 相同方式更新…… 15 GBDT算法 GBDT(Gradient Boosting Decision Tree)是一种迭代的决策树算 法,该算法由多棵决策树组成,GBDT 的核心在于累加所有树的结果 作为最终结果,所以 GBDT 中的树都是回归树,不是分类树,它是属 于 Boosting 策略。GBDT 是被公认的泛化能力较强的算法。 ?=1 ? ? ??, ??−1 ?? + ?(??: ??) ?0 ? = 0 前向分步算法: ?? ? = ෍ ?=1 ? ?(?: ??) 初始化提升树 第?棵决策树 迭代?次,包 含?棵决策树 的提升树 真实值 损失函数 备注:损失函数选择:如分类用指数损失函数,回归使用平方误差损失。 GBDT算法 18 GBDT算法 ?0 ? ?1 ? ?2 ?
    0 码力 | 50 页 | 2.03 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-12机器学习-关联规则

    只有一项,则直接返回频繁k项集的集合作为算法结果,算法结束。 c) 基于频繁k项集,连接生成候选频繁k+1项集。 3) 令k=k+1,转入步骤2。 12 2.Apriori算法 算法案例 第一次迭代:假设支持度阈值为2,创建大小为1的项集并计算它们的支持度。 订单编号 项目 T1 1 3 4 T2 2 3 5 T3 1 2 3 5 T4 2 5 T5 可以看到,第4项的支持度为1,小于最小支持度2。所以我们将在接下来的 迭代中丢弃{4}。我们得到最终表F1。 项集 支持度 {1} 3 {2} 3 {3} 4 {4} 1 {5} 4 C1 项集 支持度 {1} 3 {2} 3 {3} 4 {5} 4 F1 14 2.Apriori算法 算法案例 第2次迭代:接下来我们将创建大小为2的项集,并计算它们的支持度。F1中设 置的所有项 算法案例 第三次迭代:我们将丢弃{1,2,3}和{1,2,5},因为它们都包含{1,2}。 F3 项集 支持度 {1,3,5} 2 {2,3,5} 2 订单编号 项目 T1 1 3 4 T2 2 3 5 T3 1 2 3 5 T4 2 5 T5 1 3 5 18 2.Apriori算法 算法案例 第四次迭代:使用F3的集合,我们将创建C4。
    0 码力 | 49 页 | 1.41 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入

    19 3.Word2Vec 负采样 并不是每次迭代都训练全部10,000个,我们只训练其中 的5个,我们要训练对应真正目标词那一个分类器,再训练 4个随机选取的负样本,这就是? = 4的情况。所以不使用 一个巨大的10,000维度的softmax,因为计算成本很高, 而是把它转变为10,000个二分类问题,每个都很容易计算 ,每次迭代我们要做的只是训练它们其中的5个,一般而言 就是 就是? + 1个,其中?个负样本和1个正样本。这也是为什么 这个算法计算成本更低,因为只需更新? + 1个逻辑单元, ? + 1个二分类问题,相对而言每次迭代的成本比更新 10,000维的softmax分类器成本低。 ? ?? = ? ?? 3 4 σ?=1 10,000 ? ?? 3 4 20 3.Word2Vec 训练流程 在训练过程开始之前,我们预先处理我们正在训练模型的文本。在这一步中, model)去训练学习模型(即: 用AI训练AI的思路) ✓ InstructGPT的训练步骤为:对GPT-3监督微调——训练奖励模型(reward model)——增强学习优化SFT (第二、第三步可以迭代循 环多次) 图:InstructGPT训练三步骤各自对应的数据集规模如下图所示(labeler指的是OpenAI的标注人员,customer指GPT-3 API的用户) GPT的发展 40
    0 码力 | 44 页 | 2.36 MB | 1 年前
    3
  • pdf文档 微博在线机器学习和深度学习实践-黄波

    System Model Serving System 3 在线机器学习-参数服务器 • 参数规模 • 支持百亿特征维度,千亿参数 • 模型版本 • 多模型多版本:多组实验并行执行,提高实验迭代效率 • 在线版本切换:基于ZK的版本感知机制,动态进行版本切换,实现BASE模型的热更新,实时训练与离线训练周期模型融合 • 模型结构训练与推理兼容:在线PS与离线PS模型结构兼容,自动模型参数转换 但同时对模型服务的性能要求更高 4 深度学习-效果 平台篇 PLATFORM 平台背景、平台架构和平台效果 12 • 平台背景-平台化 成本 效率 效果 实时 机器 人力 时间 开发 运行 迭代 规模 深度 1 平台背景 算法/模型 计算 数据/特征 存储 基础/IDE 业务 调度 集群 2 平台架构 计算 机器学习平台 Feed排序 推荐流 文本分类/检测 Hadoop/Spark 负样本:曝光无互动 样本数据 推荐引擎 业务引擎 用户特征 女性,19-22岁,北京 爱好娱乐,明星,高 活跃…… 特征数据 数据样本 模型参数求解: 损失函数误差最小: 梯度下降等迭代求解 模型训练 WeiFlow 控制台 实时计算 实时统计,…… 特征计算 微博特征 9点发布,带视频,北 京,奥运,时事新闻 ,高热度…… 批量计算 静态特征,批量统计 ,…… 控制中心
    0 码力 | 36 页 | 16.69 MB | 1 年前
    3
  • pdf文档 PyTorch OpenVINO 开发实战系列教程第一篇

    开发者生态社区,因为其开发效率高、特别容 易构建各种复杂的深度学习模型网络,因此很快得到大量人工 智能开发者的认可与追捧,也成为工业界最受欢迎的深度学习 框架之一。 Pytorch 发展至今,其版本跟功能几经迭代,针对不同的场景 任务分裂出不同的分支扩展库,比如针对自然语言处理(NLP) 的 torchtext、针对计算机视觉的 torchvision、针对语音处理 的 torchaudio,这些库支持快速模型训练与演示应用,可以 学习率 * 对应参数梯度(公式 1-3) 其中学习率通常用 η 表示,对应的每个参数梯度则根据深度学 习框架的自动微分机制得到的,这样就实现了线性回归模型模 型的构建与训练过程,最终根据输入的迭代次数运行输出就获 取了回归直线的两个参数。完成了线性回归的求解。 1.5.2 线性回归代码演示 通过前面一小节的学习读者应该了什么是线性回归、线性回归 是如何工作的,现在我们已经迫不及待的想在 lr=learning_rate) 其中 MSELoss 跟公式 1-2 表述一致、优化器 optimizer 完成 自动梯度求解并根据公式 1-3 的方式来更新每个参数。 第四步:开始迭代训练过程 for epoch in range(100): epoch += 1 # Convert numpy array to torch Variable inputs = torch
    0 码力 | 13 页 | 5.99 MB | 1 年前
    3
共 29 条
  • 1
  • 2
  • 3
前往
页
相关搜索词
经典算法人工智能人工智能外卖物流调度应用动手深度学习v2机器课程温州大学10聚类PyTorch深度学习Keras基于Python08集成12关联规则自然语言自然语言处理嵌入微博在线实践黄波OpenVINO开发实战系列教程第一一篇第一篇
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩