《TensorFlow 2项目进阶实战》6-业务落地篇:实现货架洞察Web应⽤业务落地篇:实现货架洞察 Web 应用 扫码试看/订阅 《 TensorFlow 2项目进阶实战》视频课程 • 串联 AI 流程理论:商品检测与商品识别 • 串联 AI 流程实战:商品检测与商品识别 • 展现 AI 效果理论:使用 OpenCV 可视化识别结果 • 展现 AI 效果实战:使用 OpenCV 可视化识别结果 • 搭建 AI SaaS 理论:Web 框架选型 • 搭建 AI 安装依赖 requirements.txt 测试 flask 是否能启动 $ python manage.py 扩展启动脚本 manage.py 实现 AI 流水线 ai_pipeline.py 实现 AI 流水线 ai_pipeline.py 实现 AI 流水线 ai_pipeline.py 搭建 AI SaaS 实战:10 分钟快速开发 AI SaaS “Hello TensorFlow”0 码力 | 54 页 | 6.30 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112言 这是一本面向人工智能,特别是深度学习初学者的书,本书旨在帮助更多的读者朋友了 解、喜欢并进入到人工智能行业中来,因此作者试图从分析人工智能中的简单问题入手,一 步步地提出设想、分析方案以及实现方案,重温当年科研工作者的发现之路,让读者身临其 境式的感受算法设计思想,从而掌握分析问题、解决问题的能力。这种方式也是对读者的基 础要求较少的,读者在学习本书的过程中会自然而然地了解算法的相关背景知识,体会到知 本书共 15 章,大体上可分为 4 个部份:第 1~3 章为第 1 部分,主要介绍人工智能的初 步认知,并引出相关问题;第 4~5 章为第 2 部分,主要介绍 PyTorch 相关基础,为后续算法 实现铺垫;第 6~9 章为第 3 部分,主要介绍神经网络的核心理论和共性知识,让读者理解深 度学习的本质;第 10~15 章为模型算法应用部分,主要介绍常见的算法与模型,让读者能够 学有所用。 在本书中 PyTorch 实现的,众多的第三方 AI 框架应用,例如 mmdetection、mmaction2、 transformer、speechbrain 等均以 PyTorch 为基础开发,可见掌握 PyTorch 框架在人工智能行 业中的重要地位。 本书基于清华大学出版社出版的《TensorFlow 深度学习—深入理解人工智能算法》一书 进行二次撰写,代码部分完全基于 PyTorch 进行实现。考虑到本人能力有限、行文仓促,可0 码力 | 439 页 | 29.91 MB | 1 年前3
动手学深度学习 v2.03.1.4 从线性回归到深度网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 3.2 线性回归的从零开始实现 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 3.2.1 生成数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 3.3 线性回归的简洁实现 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 3.3.1 生成数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 3.6 softmax回归的从零开始实现 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 3.6.1 初始化模型参数 . . . . .0 码力 | 797 页 | 29.45 MB | 1 年前3
Keras: 基于 Python 的深度学习库• 易扩展性。新的模块是很容易添加的(作为新的类和函数),现有的模块已经提供了充足 的示例。由于能够轻松地创建可以提高表现力的新模块,Keras 更加适合高级研究。 • 基于 Python 实现。Keras 没有特定格式的单独配置文件。模型定义在 Python 代码中,这 些代码紧凑,易于调试,并且易于扩展。 1.3 快速开始:30 秒上手 Keras Keras 的核心数据结构是 model.predict(x_test, batch_size=128) 构建一个问答系统,一个图像分类模型,一个神经图灵机,或者其他的任何模型,就是这么 的快。深度学习背后的思想很简单,那么它们的实现又何必要那么痛苦呢? 有关 Keras 更深入的教程,请查看: • 开始使用 Sequential 顺序模型 • 开始使用函数式 API 在代码仓库的 examples 目录中,你会找到更多高级模型:基于记忆网络的问答系统、基于 谁能确定它们讲述了什么故事?并不是所有人都能找 到。那里有两扇门,就是通往短暂的 Oneiroi 的通道;一个是用号角制造的,一个是 用象牙制造的。穿过尖锐的象牙的 Oneiroi 是诡计多端的,他们带有一些不会实现的 信息;那些穿过抛光的喇叭出来的人背后具有真理,对于看到他们的人来说是完成 的。” Homer, Odyssey 19. 562 ff (Shewring translation). 为什么选择0 码力 | 257 页 | 1.19 MB | 1 年前3
AI大模型千问 qwen 中文文档3 下一步 现在,您可以尽情探索 Qwen 模型的各种用途。若想了解更多,请随时查阅本文档中的其他内容。 1.3 使用 Transformers 实现 Chat Qwen1.5 最重要同时也最简单的用途是通过 transformers 库实现 Chat 功能。在本文档中,我们将展示如何在 流式模式或非流式模式下与 Qwen1.5-7B-Chat 进行对话。 1.3.1 基本用法 你只需借助 遵循先前实践,对 chat 模型应用 ChatML 模板。而 max_new_tokens 参数则用于设置响应的最大长度。此 外,通过 tokenizer.batch_decode() 函数对响应进行解码。关于输入部分,上述的 messages 是一个 示例,展示了如何格式化对话历史记录和系统提示。默认情况下,如果您没有指定系统提示,我们将直接使 用 You are a helpful assistant. 作为系统提示。 model.generate() # Starting here, we add streamer for text generation. (续下页) 1.3. 使用 Transformers 实现 Chat 7 Qwen (接上页) from transformers import TextIteratorStreamer streamer = TextIteratorStreamer(tokenizer0 码力 | 56 页 | 835.78 KB | 1 年前3
机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入测,并且看到我 们有一个实际的目标标签要比较,那么让我们计算模型预测中 的误差。为此,我们只从目标标签中减去sigmoid分数 25 3.Word2Vec 训练流程 这是“机器学习”的“学习”部分。现在,我们可以利用这个误差 分数调整`not`,`thou`,`aaron`和`taco`的嵌入,使下一次我们做出 这一计算,结果会更接近目标分数。 26 3.Word2Vec 训练流程 训 词语或语段,让神经网络自主学习复原被 遮挡部分,从而拥有“猜测”缺失内容的 能力,产出预训练模型。再通过大规模预 训练模型理解上文或给定条件,从概率层 面推测最符合要求的输出结果。其本质是 借助超大规模的训练参数猜测上下文的过 程 文本风格 主流思路是分离文本属性及文本内容 迁移 隐式方法即使用某类无监督学习学习或强化学 习模式将文本属性及内容自动分离,常见的有 生成对抗方式,即通过GAN实现目标属性和 性。 ✓ 在考虑以上局限性的前提下,GPT论文中证明,通过对未标记文本的不同语料库进行语言模型的生成性预训练,然后对每个特定任务 进行区分性微调,可以实现这些任务上的巨大收益。和之前方法不同,GPT在微调期间使用任务感知输入转换,以实现有效的传输, 同时对模型架构的更改最小。 图:GPT-1模型的核心手段是预训练(Pre-training) 无监督预训练 (Unsupervised0 码力 | 44 页 | 2.36 MB | 1 年前3
《TensorFlow 快速入门与实战》4-实战TensorFlow房价预测第四部分 实战 TensorFlow 房价预测 扫描二维码 试看/购买《TensorFlow 快速入门与实战》视频课程 • 房价预测模型介绍 • 使用 TensorFlow 实现房价预测模型 • 使用 TensorBoard 可视化模型数据流图 • 实战 TensorFlow 房价预测 第四部分 目录 房价预测模型介绍 前置知识:监督学习(Supervised Learning) 22368 -1.13095 -0.78102 -0.22368 -1.02697 -0.63757 -0.22368 -0.78305 训练数据: 假设函数: 使用 TensorFlow 实现房价预测模型 使用 TensorFlow 训练模型的工作流 数据读入 数据分析 数据 规范化 创建模型 (数据流图) 创建会话 (运行环境) 训练模型 数据分析库:Pandas 据结构化和数据分析工具。 数据框(Data Frame)是一个二维带标记的数据结构,每列(column)数据类型 可以不同。我们可以将其当作电子表格或数据库表。 数据读入 pandas.read_csv 方法实现了快速读取 CSV(comma-separated) 文件到数据框的功能。 数据可视化库:matplotlib & seaborn & mplot3d matplotlib 是一个 Python0 码力 | 46 页 | 5.71 MB | 1 年前3
机器学习课程-温州大学-09深度学习-目标检测分类(Classification) 即是将图像结构化为某一 类别的信息,用事先确定 好的类别(string)或实例ID 来描述图片。这一任务是 最简单、最基础的图像理 解任务,也是深度学习模 型最先取得突破和实现大 规模应用的任务。 检测(Detection) 分类任务关心整体,给出的 是整张图片的内容描述,而 检测则关注特定的物体目标 ,要求同时获得这一目标的 类别信息和位置信息。 分割(Segmentation) 目标检测网络的常见结构 Backbone network,即主干网络,是目标检测网络最为核心的部分 Neck network,即瓶颈网络,Neck部分的主要作用就是将由backbone输出的 特征进行整合。 Detection head,即检测头,这一部分的作用就就是若干卷积层进行预测, 也有些工作里把head部分称为decoder(解码器)的。 15 01 目标检测概述 2.目标检测算法 能会影响性能。反之,如果采 用小粒度或小步幅,传递给卷 积网络的小窗口会特别多,这 意味着超高的计算成本。 23 2.目标检测算法 滑动窗口的卷积实现 24 2.目标检测算法 滑动窗口的卷积实现 25 2.目标检测算法 滑动窗口的卷积实现 26 2.目标检测算法 交并比 交并比:IOU=(A∩B)/(A∪B) 27 2.目标检测算法 非极大值抑制(Non-Maximum0 码力 | 43 页 | 4.12 MB | 1 年前3
机器学习课程-温州大学-13深度学习-Transformeris all you need的文章,开创性地提出了 在序列转录领域,完全抛弃 CNN和RNN,只依赖Attention-注 意力结构的简单的网络架构, 名为Transformer;论文实现的 任务是机器翻译。 Transformer结构 Multi-Head Attention Add & Norm Input Embedding Output Embedding Feed Transformer的工作流程 那么拆开这个黑箱,我们可以看到它是由编码组件、解码组件和它们之间的 连接组成。 16 2.Transformer的工作流程 编码组件部分由一堆编 码器(encoder)构成 (论文中是将6个编码 器叠在一起)。解码组 件部分也是由相同数量 (与编码器对应)的解 码器(decoder)组成 的。 17 2.Transformer的工作流程 所有的编码器在结构上都是相同 on)层和前馈(feed-forward)层。除此之外, 这两个层之间还有一个注意力层,用来关注输入句子的相关部分(和seq2seq模型的注意力 作用相似)。 19 2.Transformer的工作流程 各种向量或张量是怎样在模型的不同部分中,将输入转化为输出的。 像大部分NLP应用一样,我们首先将每个输入单词通过词嵌入算法转换为词向量。 每个单词都被嵌入为512维的向量,词嵌入过程只发生在最底层的编码器中。所0 码力 | 60 页 | 3.51 MB | 1 年前3
机器学习课程-温州大学-11机器学习-降维从高 维空间转换到低维空间,该过程与信息论中有损压缩概念密切相 关。同时要明白的,不存在完全无损的降维。 有很多种算法可以完成对原始数据的降维,在这些方法中,降维 是通过对原始数据的线性变换实现的。 7 1.降维概述 • 高维数据增加了运算的难度 • 高维使得学习算法的泛化能力变弱(例如,在最近邻分类器中, 样本复杂度随着维度成指数增长),维度越高,算法的搜索难度 和成本就越大。 ×???×???×? T ? ?? ? × ? ? × ? ? × ? ? × ? 奇异值 ?? ?? T 左奇异矩阵 右奇异矩阵 ≈ 如图所示,现在我们的矩阵? 只 需要黄色的部分的三个小矩阵就 可以近似描述了。 其中 ? 要比 ?小很多,也就是一个大的矩阵?可以用三个小的矩阵 ??×?, σ ?×? , ??×? T 来表示。 · · 29 2.SVD(奇异值分解) PCA(主成分分析) 主成分分析(Principal Component Analysis,PCA)是一种降维方法, 通过将一个大的特征集转换成一个较小的特征集,这个特征集仍然包含 了原始数据中的大部分信息,从而降低了原始数据的维数。 减少一个数据集的特征数量自然是以牺牲准确性为代价的,但降维的诀 窍是用一点准确性换取简单性。因为更小的数据集更容易探索和可视化 ,并且对于机器学习算法来说,分析数据会更快、更容易,而不需要处0 码力 | 51 页 | 3.14 MB | 1 年前3
共 61 条
- 1
- 2
- 3
- 4
- 5
- 6
- 7













