Keras: 基于 Python 的深度学习库Twitter 上的一条新闻标题有多少转发和点赞数。模型的 主要输入将是新闻标题本身,即一系列词语,但是为了增添趣味,我们的模型还添加了其他的 辅助输入来接收额外的数据,例如新闻标题的发布的时间等。该模型也将通过两个损失函数进 行监督学习。较早地在模型中使用主损失函数,是深度学习模型的一个良好正则方法。 模型结构如下图所示: 让我们用函数式 API 来实现它。 主要输入接收新闻标题本身,即一个整数序列(每个整数编码一个词)。这些整数在 100 个词。 from keras.layers import Input, Embedding, LSTM, Dense from keras.models import Model # 标题输入:接收一个含有 100 个整数的序列,每个整数在 1 到 10000 之间。 # 注意我们可以通过传递一个 `name` 参数来命名任何层。 main_input = Input(shape=(100 libhdf5-serial-dev 如果你不确定是否安装了 h5py,则可以打开 Python shell 并通过下面的命令加载模块 import h5py 快速开始 38 如 果 模 块 导 入 没 有 错 误, 那 么 模 块 已 经 安 装 成 功, 否 则 你 可 以 在 http://docs.h5py.org/en/latest/build.html 中找到详细的安装说明。 模型 39 40 码力 | 257 页 | 1.19 MB | 1 年前3
动手学深度学习 v2.0. . . . . . . . . 188 5 深度学习计算 191 5.1 层和块 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 5.1.1 自定义块 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 5.1.2 顺序块 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 iv 5.1.3 在前向传播函数中执行代码 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254 7.2 使用块的网络(VGG) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255 7.2.1 VGG块 . . . . . . . . . . . . . . . . . . . . . . . . .0 码力 | 797 页 | 29.45 MB | 1 年前3
机器学习课程-温州大学-14深度学习-Vision Transformer (ViT) 为什么需要用transformer Transformer原本是用来做 NLP的工作的,所以ViT的 首要任务是将图转换成词 的结构,这里采取的方法 是如上图左下角所示,将 图片分割成小块,每个小 块就相当于句子里的一个 词。这里把每个小块称作 Patch,而Patch Embedding 就是把每个Patch再经过一 个全连接网络压缩成一定 维度的向量。 1.背景知识 7 为什么需要用transformer 位置embedding和tokensembedding相加 4.输入到Transformer模型 5.CLS输出做多分类任务 10 先将图片分成NxN的patch块(原始论文是16x16) patch块可以重叠(上图没有重叠,是9x9的patch块) 2.模型介绍 11 将patch打平, 对每个 patch 进行线性映射,提取特征 2.模型介绍 12 提取特征 2.模型介绍 13 1 输入分类层 encoder 会输出多个上 下文向量,对于图像分 类,只需要 ?0。 19 模型框架 最简洁的Vision Transformer模型 ,先将图片分成 16x16的patch块, 送入transformer encoder,第一个 cls token的输出送 入mlp head得到 预测结果。 2.模型介绍 20 来自输入空间的注意力表达 输入 输入 输入0 码力 | 34 页 | 2.78 MB | 1 年前3
机器学习课程-温州大学-08深度学习-深度卷积神经网络经典网络 02 深度残差网络 03 其它现代网络 04 卷积神经网络使用技巧 4 经典网络-LeNet-5 • LeNet 分为两个部分组成: • 卷积层块:由两个卷积层块组成; • 全连接层块:由三个全连接层组成。 5 ? = 5 ? = 1 6 filter CONV1 POOL1 ? = 2 ? = 2 ? = 5 ? = 1 16 filter ? =0 码力 | 32 页 | 2.42 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版20211212 年, Alex Krizhevsky 提出了 8 层的深层神经网络 AlexNet,它采用了 ReLU 激活函数,并使用 Dropout 技术来防止过拟合,同时抛弃了逐层预训练的方式,直接在两块 NVIDIA GTX580 GPU 上训练网络。AlexNet 在 ILSVRC-2012 图片识别比赛中获得了第一名的成绩,比第二 名在 Top-5 错误率上降低了惊人的 10.9%。 自 AlexNet 1.11 数据集大小趋势 1.3.2 计算力 计算能力的提升是第三次人工智能复兴的一个重要因素。实际上,现代深度学习的基 础理论在 1980 年代就已经被提出,但直到 2012 年,基于两块 GTX580 GPU 训练的 AlexNet 发布后,深度学习的真正潜力才得以发挥。传统的机器学习算法并不像神经网络 这样对数据量和计算能力有严苛的要求,通常在 CPU 上串行训练即可得到满意结果。但是 经网络均使用 NVIDIA GPU 和 Google TPU 等并行加速芯片训练模型参数。如围棋程序 AlphaGo Zero 在 64 块 GPU 上从 零开始训练了 40 天才得以超越所有的 AlphaGo 历史版本;自动网络结构搜索算法使用了 800 块 GPU 同时训练才能优化出较好的网络结构。 目前普通消费者能够使用的深度学习加速硬件设备主要来自 NVIDIA 的 GPU 显卡, 图0 码力 | 439 页 | 29.91 MB | 1 年前3
pytorch 入门笔记-03- 神经网络tensor([ 0.0040, 0.0098, 0.0213, -0.0162, 0.0075, -0.0018]) 如何使用损失函数 稍后阅读: nn 包,包含了各种用来构成深度神经网络构建块的模块和损失函数,完整的文档请查看 here。 剩下的最后一件事: ● 新网络的权重 更新权重 在实践中最简单的权重更新规则是随机梯度下降(SGD): weight = weight - learning_rate0 码力 | 7 页 | 370.53 KB | 1 年前3
亚马逊AWSAI Services OverviewTheano Caffe Torch 预配置的 CUDA 驱动 Anaconda, Python3 + CloudFormation 模版 + 容器镜像文件 全新的 EC2 P2 实例 | 高达16 块 GPUs ▪ 这款新实例类型包含了高达 8个 NVIDIA Tesla K80 Accelerators, 每个运行一对 NVIDIA GK210 GPUs. ▪ 每块GPU 提供 12 GiB0 码力 | 56 页 | 4.97 MB | 1 年前3
机器学习课程-温州大学-numpy使用总结array([ 0, 1, 100, 101, 4, 5, 6, 7, 8, 9]) 19 ndarray的切片 ndarray通过切片产生一个新的数组b,b和a共享同一块数据存储空间。 > b = a[3:7] > b[2] = -10 b a0 码力 | 49 页 | 1.52 MB | 1 年前3
PyTorch OpenVINO 开发实战系列教程第一篇������������������������������������������������� 11 概述 大家好,本章是主要介绍一下深度学习框架 Pytorch 的的历史与发展,主要模 块构成与基础操作代码演示。重点介绍 Pytorch 的各个组件、编程方式、环境 搭建、基础操作代码演示。本章对有 Pytorch 开发经验的读者来说可以直接跳 过;对初次接触 Pytorch 的读者来说,通过本章学习认识0 码力 | 13 页 | 5.99 MB | 1 年前3
AI大模型千问 qwen 中文文档5“模型来检索英文文档,下 载 “bge-base-zh-v1.5“模型以检索中文文档。根据您的计算资源,您还可以选择 “bge-large“或 “bge-small“作为向量模型,或调整上下文窗口大小或文本块大小。 Qwen 1.5 模型系列支持最大 32K 上下文窗口大小。 现在我们可以从文档或网站构建索引。 以下代码片段展示了如何为本地名为’document’的文件夹中的文件(无论是 PDF 格式还是0 码力 | 56 页 | 835.78 KB | 1 年前3
共 10 条
- 1













