积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(227)VirtualBox(113)Apache Kyuubi(44)Pandas(32)机器学习(25)rancher(3)Docker(2)OpenShift(2)Kubernetes(1)Istio(1)

语言

全部英语(208)中文(简体)(18)英语(1)

格式

全部PDF文档 PDF(205)其他文档 其他(22)
 
本次搜索耗时 0.020 秒,为您找到相关结果约 227 个.
  • 全部
  • 云计算&大数据
  • VirtualBox
  • Apache Kyuubi
  • Pandas
  • 机器学习
  • rancher
  • Docker
  • OpenShift
  • Kubernetes
  • Istio
  • 全部
  • 英语
  • 中文(简体)
  • 英语
  • 全部
  • PDF文档 PDF
  • 其他文档 其他
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 6 - Advanced Learning Techniques - Technical Review

    than vanilla distillation. We will now go over stochastic depth, a technique which can be useful if you are training very deep networks. Stochastic Depth Deep networks with hundreds of layers such as block, the output of the previous layer ( ) skips the layers represented by the function . The stochastic depth idea takes this one step further by probabilistically dropping a residual block with a probability final probability ( ). Under these conditions, the expected network depth during training reduces to . By expected network depth we informally mean the number of blocks that are enabled in expectation
    0 码力 | 31 页 | 4.03 MB | 1 年前
    3
  • pdf文档 Keras: 基于 Python 的深度学习库

    layers.SeparableConv2D(filters, kernel_size, strides=(1, 1), padding='valid', data_format=None, depth_multiplier=1, activation=None, use_bias=True, depthwise_initializer='glorot_uniform', pointwise bias_constraint=None) 深度方向的可分离 2D 卷积。 可分离的卷积的操作包括,首先执行深度方向的空间卷积(分别作用于每个输入通道),紧 接一个将所得输出通道混合在一起的逐点卷积。depth_multiplier 参数控制深度步骤中每个输 入通道生成多少个输出通道。 直观地说,可分离的卷积可以理解为一种将卷积核分解成两个较小的卷积核的方法,或者 作为 Inception 块的一个极端版本。 json 中找到的 image_data_format 值。如果你从未设 置它,将使用”channels_last”。 • depth_multiplier: 每个输入通道的深度方向卷积输出通道的数量。深度方向卷积输出通道 的总数将等于 filterss_in * depth_multiplier。 • activation: 要使用的激活函数 (详见 activations)。如果你不指定,则不使用激活函数
    0 码力 | 257 页 | 1.19 MB | 1 年前
    3
  • pdf文档 Cardinality and frequency estimation - CS 591 K1: Data Stream Processing and Analytics Spring 2020

    difficult ??? Vasiliki Kalavri | Boston University 2020 10 Stochastic averaging ??? Vasiliki Kalavri | Boston University 2020 10 Stochastic averaging Use one hash function to simulate many by splitting of the M-bit hash value to select a sub-stream and the next M-p bits to compute the rank(.): Stochastic averaging Use one hash function to simulate many by splitting the hash value into two parts of the M-bit hash value to select a sub-stream and the next M-p bits to compute the rank(.): Stochastic averaging Use one hash function to simulate many by splitting the hash value into two parts
    0 码力 | 69 页 | 630.01 KB | 1 年前
    3
  • pdf文档 深度学习与PyTorch入门实战 - 35. Early-stopping-Dropout

    Early Stop,Dropout 主讲人:龙良曲 Tricks ▪ Early Stopping ▪ Dropout ▪ Stochastic Gradient Descent Early Stopping ▪ Regularization How-To ▪ Validation set to select parameters ▪ Monitor validation performance Batch- Norm Stochastic Gradient Descent ▪ Stochastic ▪ not random! ▪ Deterministic Gradient Descent https://towardsdatascience.com/difference-between-batch-gradient-descent-and- stochastic-gradient- https://towardsdatascience.com/difference-between-batch-gradient-descent-and- stochastic-gradient-descent-1187f1291aa1 ?? ??? Stochastic Gradient Descent ▪ Not single usually ▪ batch = 16, 32, 64, 128… Why
    0 码力 | 16 页 | 1.15 MB | 1 年前
    3
  • pdf文档 Lecture 2: Linear Regression

    Supervised Learning: Regression and Classification 2 Linear Regression 3 Gradient Descent Algorithm 4 Stochastic Gradient Descent 5 Revisiting Least Square 6 A Probabilistic Interpretation to Linear Regression 0.6 , = 0.06 , = 0.07 , = 0.071 Feng Li (SDU) Linear Regression September 13, 2023 20 / 31 Stochastic Gradient Descent (SGD) What if the training set is huge? In the above batch gradient descent iteration A considerable computation cost is induced! Stochastic gradient descent (SGD), also known as incremental gradient descent, is a stochastic approximation of the gradient descent optimiza- tion
    0 码力 | 31 页 | 608.38 KB | 1 年前
    3
  • pdf文档 Lecture Notes on Linear Regression

    the GD algorithm. We illustrate the convergence processes under di↵erent step sizes in Fig. 3. 3 Stochastic Gradient Descent According to Eq. 5, it is observed that we have to visit all training data in convergence of GD algorithm under di↵erent step sizes. Stochastic Gradient Descent (SGD), also known as incremental gradient descent, is a stochastic approximation of the gradient descent optimization method x(i) � y(i))x(i) (6) and the update rule is ✓j ✓j � ↵(✓T x(i) � y(i))x(i) j (7) Algorithm 2: Stochastic Gradient Descent for Linear Regression 1: Given a starting point ✓ 2 dom J 2: repeat 3: Randomly
    0 码力 | 6 页 | 455.98 KB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-02深度学习-神经网络的编程基础

    梯度下降 ? 学习率 步长 11 梯度下降的三种形式 批量梯度下降(Batch Gradient Descent,BGD) 梯度下降的每一步中,都用到了所有的训练样本 随机梯度下降(Stochastic Gradient Descent,SGD) 梯度下降的每一步中,用到一个样本,在每一次计算之后 便更新参数 ,而不需要首先将所有的训练集求和 小批量梯度下降(Mini-Batch Gradient 1 ? ෍ ?=1 ? ℎ ?(?) − ?(?) ⋅ ?? (?) (同步更新?? ,(j=0,1,...,n )) 梯度 学习率 13梯度下降的三种形式 随机梯度下降(Stochastic Gradient Descent) ? = ? − ? ⋅ ??(?) ?? = ? ??? 1 2 ℎ ? ? − ? ? 2 = 2 ⋅ 1 2 ℎ ? ? − ? ? ⋅ = ℎ ? ? − ? ? ⋅ ? ??? ൱ ෍ ?=0 ? (?? ?? ? − ? ? = ℎ ? ? − ? ? ?? ? 14梯度下降的三种形式 随机梯度下降(Stochastic Gradient Descent) 梯度下降的每一步中,用到一个样本,在每一次计算之后便更新参数,而不 需要首先将所有的训练集求和 参数更新 ??: = ?? − ? ℎ ?(?) −
    0 码力 | 27 页 | 1.54 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-02机器学习-回归

    梯度下降 ? 学习率 步长 13 梯度下降的三种形式 批量梯度下降(Batch Gradient Descent,BGD) 梯度下降的每一步中,都用到了所有的训练样本 随机梯度下降(Stochastic Gradient Descent,SGD) 梯度下降的每一步中,用到一个样本,在每一次计算之后 便更新参数 ,而不需要首先将所有的训练集求和 小批量梯度下降(Mini-Batch Gradient 1 ? ෍ ?=1 ? ℎ ?(?) − ?(?) ⋅ ?? (?) (同步更新?? ,(j=0,1,...,n )) 梯度 学习率 15梯度下降的三种形式 随机梯度下降(Stochastic Gradient Descent) ? = ? − ? ⋅ ??(?) ?? = ? ??? 1 2 ℎ ? ? − ? ? 2 = 2 ⋅ 1 2 ℎ ? ? − ? ? ⋅ ℎ ? ? − ? ? ⋅ ? ??? (෍ ?=0 ? ( ???? (?) − ?(?))) = ℎ ? ? − ? ? ?? ? 16梯度下降的三种形式 随机梯度下降(Stochastic Gradient Descent) 梯度下降的每一步中,用到一个样本,在每一次计算之后便更新参数,而不 需要首先将所有的训练集求和 参数更新 ??: = ?? − ? ℎ ?(?) −
    0 码力 | 33 页 | 1.50 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 7 - Automation

    Iterations 0 1 2 3 4 0 81, 1 27, 3 9, 9 6, 27 5, 81 3 Jamieson, Kevin, and Ameet Talwalkar. "Non-stochastic best arm identification and hyperparameter optimization." Artificial intelligence and statistics performance on the image and language benchmark datasets. Moreover, their NAS model could generate variable depth child networks. Figure 7-4 shows a sketch of their search procedure. It involves a controller which
    0 码力 | 33 页 | 2.48 MB | 1 年前
    3
  • pdf文档 Machine Learning

    α∂L(θ) ∂θj , ∀j where α is so-called learning rate • Variations • Gradient ascent algorithm • Stochastic gradient descent/ascent • mini-batch gradient descent/ascent 9 / 19 Back-Propagation: Warm Up ∂L/∂w[l] jk = a[l−1] k δ[l] j and ∂L/∂b[l] j = δ[l] j • BP algorithm is usually combined with stochastic gradient descent algorithm or mini-batch gradient descent algorithm 18 / 19 Thanks! Q & A 19
    0 码力 | 19 页 | 944.40 KB | 1 年前
    3
共 227 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 23
前往
页
相关搜索词
EfficientDeepLearningBookEDLChapterAdvancedTechniquesTechnicalReviewKeras基于Python深度学习CardinalityandfrequencyestimationCS591K1DataStreamProcessingAnalyticsSpring2020PyTorch入门实战35EarlystoppingDropoutLectureLinearRegressionNoteson机器课程温州大学02神经网络神经网神经网络编程基础回归AutomationMachine
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩