积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(26)机器学习(26)

语言

全部中文(简体)(14)英语(12)

格式

全部PDF文档 PDF(26)
 
本次搜索耗时 0.073 秒,为您找到相关结果约 26 个.
  • 全部
  • 云计算&大数据
  • 机器学习
  • 全部
  • 中文(简体)
  • 英语
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 4 - Efficient Architectures

    bedding_layer(trainable=True)) bow_model_w2v.compile( loss='sparse_categorical_crossentropy', optimizer='adam', metrics=["accuracy"] ) bow_model_w2v.summary() Model: "bow" _________________________ get_bow_model(get_untrained_embedding_layer()) bow_model_no_w2v.compile( loss='sparse_categorical_crossentropy', optimizer='adam', metrics=["accuracy"] ) bow_model_no_w2v.summary() Model: "bow" ______________________ bedding_layer(trainable=True)) cnn_model_w2v.compile( loss='sparse_categorical_crossentropy', optimizer='adam', metrics=["accuracy"] ) cnn_model_w2v_history = cnn_model_w2v.fit( x_train_vectorized
    0 码力 | 53 页 | 3.92 MB | 1 年前
    3
  • pdf文档 动手学深度学习 v2.0

    各种机器学习问题 25 办比赛14来完成这项工作。 搜索 有时,我们不仅仅希望输出一个类别或一个实值。在信息检索领域,我们希望对一组项目进行排序。以网络 搜索为例,目标不是简单的“查询(query)‐网页(page)”分类,而是在海量搜索结果中找到用户最需要的 那部分。搜索结果的排序也十分重要,学习算法需要输出有序的元素子集。换句话说,如果要求我们输出字 母表中的前5个字母,返回“A、 train_iter: # 计算梯度并更新参数 y_hat = net(X) l = loss(y_hat, y) if isinstance(updater, torch.optim.Optimizer): # 使用PyTorch内置的优化器和损失函数 updater.zero_grad() l.mean().backward() updater.step() else: # 使用定制的优化器和损失函数 # 这里使用的是Adam优化算法 optimizer = torch.optim.Adam(net.parameters(), lr = learning_rate, weight_decay = weight_decay) for epoch in range(num_epochs): for X, y in train_iter: optimizer.zero_grad() l =
    0 码力 | 797 页 | 29.45 MB | 1 年前
    3
  • pdf文档 【PyTorch深度学习-龙龙老师】-测试版202112

    F.mse_loss 损失函数计算当前的误差ℒ: # 创建优化器,并传递需要优化的参数列表:[w1, b1, w2, b2, w3, b3] # 设置学习率 lr=0.001 optimizer = optim.SGD(model.parameters(), lr=0.01) train_loss = [] for epoch in range(5): # 训练 5 个 epoch # 计算输出与标签的 MSE loss = F.mse_loss(out, y_onehot) 在计算参数的梯度之前,通常需要清零梯度信息: optimizer.zero_grad() # 清零模型参数的梯度值 再利用 PyTorch 提供的自动求导函数 loss.backward()求出模型中所有参数的梯度信息 ?ℒ ?? , ? ∈ 预览版202112 optim 对象自动按照梯度更新法则去更新模型的参数?。 ?′ = ? − ? ∙ ?ℒ ?? 实现如下。 # w' = w - lr*grad optimizer.step() # 根据梯度下降算法更新参数 循环迭代多次后,就可以利用学好的模型??去预测未知的图片的类别概率分布。模型的测 试部分暂不讨论。 手写数字图片 MNIST 数据集的训练误差曲线如图
    0 码力 | 439 页 | 29.91 MB | 1 年前
    3
  • pdf文档 全连接神经网络实战. pytorch 版

    loss_function = nn . CrossEntropyLoss () # 学 习 率 learning_rate = 1e−3 # 优 化 器 为 随 机 梯 度 下 降 optimizer = torch . optim .SGD( model . parameters () , l r=learning_rate ) 现在我们先构思一下训练的主体程序,该程序训练 10 轮,并且每轮会训练一次,然后测试一 loss_function , optimizer ) test_loop ( test_dataloader , model , loss_function ) print ( ”Done ! ” ) 然后就是训练和测试的程序,训练一轮的程序如下: def train_loop ( dataloader , model , loss_function , optimizer ) : s i z e model (X) l o s s = loss_function ( pred , y) # Backpropagation optimizer . zero_grad () #梯 度 归0w l o s s . backward () optimizer . step () i f batch % 100 == 0: loss , current = l o s s . item ()
    0 码力 | 29 页 | 1.40 MB | 1 年前
    3
  • pdf文档 keras tutorial

    ......................................................................................... 60 Optimizer ............................................................................................... and finally do to prediction. This step requires us to choose loss function and Optimizer. loss function and Optimizer are used in learning phase to find the error (deviation from actual output) and functions like mean_squared_error, mean_absolute_error, poisson, etc.,  Optimizer module - Optimizer module provides optimizer function like adam, sgd, etc.,  Regularizers - Regularizer module provides
    0 码力 | 98 页 | 1.57 MB | 1 年前
    3
  • pdf文档 Keras: 基于 Python 的深度学习库

    activation='softmax')) 在完成了模型的构建后, 可以使用 .compile() 来配置学习过程: model.compile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy']) 如果需要,你还可以进一步地配置你的优化器。Keras 的核心原则是使事情变得相当简单, 同时又允许用户在需要的时候能够进行完全 同时又允许用户在需要的时候能够进行完全的控制(终极的控制是源代码的易扩展性)。 model.compile(loss=keras.losses.categorical_crossentropy, optimizer=keras.optimizers.SGD(lr=0.01, momentum=0.9, nesterov=True)) 现在,你可以批量地在训练数据上进行迭代了: # x_train 和 y_train 是 Numpy 快速开始 9 3.1.3 编译 在训练模型之前,您需要配置学习过程,这是通过 compile 方法完成的。它接收三个参数: • 优化器 optimizer。它可以是现有优化器的字符串标识符,如 rmsprop 或 adagrad,也可以 是 Optimizer 类的实例。详见:optimizers。 • 损失函数 loss,模型试图最小化的目标函数。它可以是现有损失函数的字符串标识符,如 c
    0 码力 | 257 页 | 1.19 MB | 1 年前
    3
  • pdf文档 Machine Learning Pytorch Tutorial

    parameters(), lr, momentum = 0) torch.optim optimizer = torch.optim.SGD(model.parameters(), lr, momentum = 0) ● For every batch of data: 1. Call optimizer.zero_grad() to reset gradients of model parameters parameters. 2. Call loss.backward() to backpropagate gradients of prediction loss. 3. Call optimizer.step() to adjust model parameters. See official documentation for more optimization algorithms. Training MSELoss() optimizer = torch.optim.SGD(model.parameters(), 0.1) read data via MyDataset put dataset into Dataloader construct model and move to device (cpu/cuda) set loss function set optimizer Neural
    0 码力 | 48 页 | 584.86 KB | 1 年前
    3
  • pdf文档 PyTorch Tutorial

    - example Optimizer • Optimizers (optim package) • Adam, Adagrad, Adadelta, SGD etc.. • Manually updating is ok if small number of weights • Imagine updating 100k parameters! • An optimizer takes the 'model_state_dict': model.state_dict(), 'optimizer_state_dict': optimizer.state_dict(), 'loss': loss, ... }, PATH) • Load: • model = TheModelClass(*args, **kwargs) optimizer = TheOptimizerClass(*args, **kwargs) checkpoint = torch.load(PATH) model.load_state_dict(checkpoint['model_state_dict']) optimizer.load_state_dict(checkpoint['optimizer_state_dict']) epoch = checkpoint['epoch'] loss = checkpoint['loss'] model.eval()
    0 码力 | 38 页 | 4.09 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 7 - Automation

    learning rate. The layer size determines the model size and the learning rate is used by the model optimizer to update the model’s weights as per gradient descent. We will conduct four trials with four pairs activation='softmax') ]) adam = optimizers.Adam(learning_rate=learning_rate) model.compile( optimizer=adam, loss='sparse_categorical_crossentropy', metrics=['accuracy'] ) return model # model = create_model() activation='softmax')(x) model = tf.keras.Model(inp, output) optimizer = optimizers.Adam(learning_rate=CHILD_PARAMS['learning_rate']) model.compile( optimizer=optimizer, loss='sparse_categorical_crossentropy', metrics='accuracy'
    0 码力 | 33 页 | 2.48 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 6 - Advanced Learning Techniques - Technical Review

    Activation('softmax')(output) bert_classifier = tf.keras.Model(bert_inputs, output) bert_classifier.compile( optimizer=tf.keras.optimizers.Adam(learning_rate), loss='sparse_categorical_crossentropy', metrics=['accuracy'] objective functions are non-convex too, and directly working with these functions might lead to the optimizer getting stuck in a local minima. Continuation methods start with a smoothened approximation of the multiple valleys or local minimas, of which only one is the true global minima. In practice the optimizer does not know where the global minima lies, so it might get stuck in local minima / valleys when
    0 码力 | 31 页 | 4.03 MB | 1 年前
    3
共 26 条
  • 1
  • 2
  • 3
前往
页
相关搜索词
EfficientDeepLearningBookEDLChapterArchitectures动手深度学习v2PyTorch深度学习连接神经网络神经网神经网络实战pytorchkerastutorialKeras基于PythonMachinePytorchTutorialAutomationAdvancedTechniquesTechnicalReview
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩