优化小实例2D函数优化实例 主讲人:龙良曲 Himmelblau function Minima Plot Gradient Descent 下一课时 MNIST反向传播 Thank You.0 码力 | 7 页 | 542.69 KB | 1 年前3
Keras: 基于 Python 的深度学习库通过 compile 方法完成的。它接收三个参数: • 优化器 optimizer。它可以是现有优化器的字符串标识符,如 rmsprop 或 adagrad,也可以 是 Optimizer 类的实例。详见:optimizers。 • 损失函数 loss,模型试图最小化的目标函数。它可以是现有损失函数的字符串标识符,如 categorical_crossentropy 或 mse,也可以是一个目标函数。详见:losses。 顺序模型比较熟悉。 让我们先从一些简单的例子开始。 3.2.2 例一:全连接网络 Sequential 模型可能是实现这种网络的一个更好选择,但这个例子能够帮助我们进行一些 简单的理解。 • 网络层的实例是可调用的,它以张量为参数,并且返回一个张量 • 输入和输出均为张量,它们都可以用来定义一个模型(Model) • 这样的模型同 Keras 的 Sequential 模型一样,都可以被训练 from import Input, Dense from keras.models import Model # 这部分返回一个张量 inputs = Input(shape=(784,)) # 层的实例是可调用的,它以张量为参数,并且返回一个张量 x = Dense(64, activation='relu')(inputs) x = Dense(64, activation='relu')(x)0 码力 | 257 页 | 1.19 MB | 1 年前3
动手学深度学习 v2.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 5.3.1 实例化网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 5.4 自定义层 . 语义分割和数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605 13.9.1 图像分割和实例分割 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605 13.9.2 Pascal VOC2012 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 661 14.3.5 小批量加载训练实例 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 663 14.3.6 整合代码 . . . . . .0 码力 | 797 页 | 29.45 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版2021122 MNIST 图片重建实战 12.3 自编码器变种 12.4 变分自编码器 12.5 VAE 实战 12.6 参考文献 第 13 章 生成对抗网络 13.1 博弈学习实例 13.2 GAN 原理 13.3 DCGAN 实战 13.4 GAN 变种 预览版202112 13.5 纳什均衡 13.6 GAN 训练难题 13.7 WGAN 所示,第一行 为欲扩展的 shape,第二行是现有 shape: ? ℎ ? 1 长度为1,默认数据相同 空维度,默认存在此 维度且数据相同 图 4.7 Broadcasting 实例 首先将 2 个张量的 shape 靠右对齐,对于通道维度?,张量的现长度为 1,则默认此数据同 样适合当前维度的其他位置,从而可将数据在逻辑上复制? − 1份,长度变为?;对于不存 在的?和ℎ维度,则自动插入新维度,新维度长度为 中新的数据依次写入 x 中,并返回更新后的结果张量。 源张量:src 目标张量:x 输出 索引坐标:index 图 5.3 scatter 更新数据示意图 我们实现一个图 5.3 中向量的刷新实例,代码如下: In [61]: # 构造需要刷新数据的位置参数,即为 4、3、1 和 7 号位置 idx = torch.tensor([4,3,1,7]) # 构造需要写入的数据,40 码力 | 439 页 | 29.91 MB | 1 年前3
《TensorFlow 快速入门与实战》4-实战TensorFlow房价预测目录 房价预测模型介绍 前置知识:监督学习(Supervised Learning) 监督学习是机器学习的一种方法,指从训练数据(输入和预期输出)中学到一个模型(函数), 并根据模型可以推断新实例的方法。 函数的输出通常为一个连续值(回归分析)或类别标签(分类)。 训练数据 学习算法 模型 新数据 推断结果 前置知识:监督学习典型算法 • 线性回归(Linear Regression) 可视化的数据是数据流图和张量,它们需要在会话中加载或执行操作后才能获取。然后, 用户需要使用 FileWriter 实例将这些数据写入事件文件。最后,启动 TensorBoard 程序, 加载事件文件中的序列化数据,从而可以在各个面板中展示对应的可视化对象。 tf.summary 模块介绍 前述流程中使用的 FileWriter 实例和汇总操作(Summary Ops) 均属于 tf.summary 模块。其主要功能是获取和输出模型相关的 FileWriter、Summary 和 Event 3个类组成。 可视化数据流图 工作流 创建 数据流图 创建 FileWriter 实例 启动 TensorBoard Which one is better? VS ✅ 名字作用域与抽象节点 创建 FileWriter 实例 启动 TensorBoard 实战 TensorFlow 房价预测 实战 TensorFlow 房价预测 工作流0 码力 | 46 页 | 5.71 MB | 1 年前3
机器学习课程-温州大学-Scikit-learn11 2.Scikit-learn主要用法 使⽤Scikit-learn进⾏数据标准化 from sklearn.preprocessing import StandardScaler 构建转换器实例 scaler = StandardScaler() 拟合及转换 scaler.fit_transform(X_train) 数据预处理 Z-Score标准化 ?∗ = ? − ? ? 基模型都可以作为estimator参数传入 14 2.Scikit-learn主要用法 监督学习算法-回归 from sklearn.linear_model import LinearRegression 构建模型实例 lr = LinearRegression(normalize=True) 训练模型 lr.fit(X_train, y_train) 作出预测 y_pred = lr.predict(X_test) Scikit-learn主要用法 无监督学习算法 sklearn.cluster模块包含了一系列无监督聚类算法. from sklearn.cluster import KMeans 构建聚类实例 kmeans = KMeans(n_clusters=3, random_state=0) 拟合 kmeans.fit(X_train) 预测 kmeans.predict(X_test) 190 码力 | 31 页 | 1.18 MB | 1 年前3
《TensorFlow 2项目进阶实战》5-商品识别篇:使用ResNet识别你的货架商品应⽤用:使用ResNet识别货架商品 • 扩展:图像分类常用数据集综述 • 扩展:图像分类更多应⽤用场景介绍 目录 基础:图像分类问题定义与说明 图像分类问题 语义级分类 细粒度分类 图像分类问题 实例级分类 识别问题 图像分类问题 实例级分类 识别问题 图像分类问题 图像分类评估:Top-1 / Top-5 准确率 图像分类评估:混淆矩阵 图像分类评估:ROC 曲线 基础:越来越深的图像分类网络 历年0 码力 | 58 页 | 23.92 MB | 1 年前3
机器学习课程-温州大学-02深度学习-神经网络的编程基础,(j=0,1,...,n )) 15 梯度下降的三种形式 小批量梯度下降(Mini-Batch Gradient Descent) 梯度下降的每一步中,用到了一定批量的训练样本 每计算常数?次训练实例,便更新一次参数 ? ?=1(随机梯度下降,SGD) ?=m(批量梯度下降,BGD) ?=batch_size,通常是2的指 数倍,常见有32,64,128等。 (小批量梯度下降,MBGD) 参数更新 ,(j=0,1,...,n )) 16 逻辑回归的梯度下降 小批量梯度下降(Mini-Batch Gradient Descent) 梯度下降的每一步中,用到了一定批量的训练样本 每计算常数?次训练实例,便更新一次参数 ? ?=1(随机梯度下降,SGD) ?=m(批量梯度下降,BGD) ?=batch_size,通常是2的指 数倍,常见有32,64,128等。 (小批量梯度下降,MBGD) 参数更新0 码力 | 27 页 | 1.54 MB | 1 年前3
亚马逊AWSAI Services OverviewCaffe Torch 预配置的 CUDA 驱动 Anaconda, Python3 + CloudFormation 模版 + 容器镜像文件 全新的 EC2 P2 实例 | 高达16 块 GPUs ▪ 这款新实例类型包含了高达 8个 NVIDIA Tesla K80 Accelerators, 每个运行一对 NVIDIA GK210 GPUs. ▪ 每块GPU 提供 12 GiB0 码力 | 56 页 | 4.97 MB | 1 年前3
AI大模型千问 qwen 中文文档在部署时的应用实例。 1.2.1 Hugging Face Transformers & ModelScope 要快速上手 Qwen1.5,我们建议您首先尝试使用 transformers 进行推理。请确保已安装了 transformers>=4. 37.0 版本。以下是一个非常简单的代码片段示例,展示如何运行 Qwen1.5-Chat 模型,其中包含 Qwen1. 5-7B-Chat 的实例: from exec -it sky /bin/bash 1.11.3 使用 SkyPilot 运行 Qwen1.5-72B-Chat 1. 您可以使用 serve-72b.yaml 中的可用的 GPU 来在单个实例上部署 Qwen1.5-72B-Chat 的基于 vLLM 的适 配 OpenAI API 的服务 sky launch -c qwen serve-72b.yaml 2. 向该 endpoint0 码力 | 56 页 | 835.78 KB | 1 年前3
共 22 条
- 1
- 2
- 3













