【PyTorch深度学习-龙龙老师】-测试版202112人工智能、机器学习、神经网络和深度学习 1.1.2 机器学习 机器学习可以分为有监督学习(Supervised Learning)、无监督学习(Unsupervised Learning)和强化学习(Reinforcement Learning,简称 RL),如图 1.2 所示。 机器学习 有监督学习 无监督学习 强化学习 图 1.2 机器学习的分类 有监督学习 有监督学习的数据集包含了样本?与样本的标签 机森林等。 无监督学习 收集带标签的数据往往代价较为昂贵,对于只有样本?的数据集,算法需 要自行发现数据的模态,这种方式叫作无监督学习。无监督学习中有一类算法将自身作为 监督信号,即模型需要学习的映射为??: ? → ?,称为自监督学习(Self-supervised Learning)。在训练时,通过计算模型的预测值??(?)与自身?之间的误差来优化网络参数?。 常见的无监督学习算法有自编码器、生成对抗网络等。 常见的无监督学习算法有自编码器、生成对抗网络等。 强化学习 也称为增强学习,通过与环境进行交互来学习解决问题的策略的一类算法。 与有监督学习、无监督学习不同,强化学习问题并没有明确的“正确的”动作监督信号, 预览版202112 1.2 神经网络发展简史 3 算法需要与环境进行交互,获取环境反馈的滞后的奖励信号,因此并不能通过计算预测动 作与“正确动作”之间的误差来优化网络。常见的强化学习算法有 DQN、TRPO、PPO0 码力 | 439 页 | 29.91 MB | 1 年前3
动手学深度学习 v2.0循环神经网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312 8.4.1 无隐状态的神经网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313 8.4.2 有隐状态的循环神经网络 ”是二维布局分析问题。再比如,对 话问题对序列的学习更为复杂:确定下一轮对话,需要考虑对话历史状态以及现实世界的知识⋯⋯如上这些 都是热门的序列学习研究领域。 28 1. 引言 1.3.2 无监督学习 到目前为止,所有的例子都与监督学习有关,即需要向模型提供巨大数据集:每个样本包含特征和相应标签 值。打趣一下,“监督学习”模型像一个打工仔,有一份极其专业的工作和一位极其平庸的老板。老板站在 去学习了。比如,老板可能会给我们一大堆数据,然 后要求用它做一些数据科学研究,却没有对结果有要求。这类数据中不含有“目标”的机器学习问题通常被 为无监督学习(unsupervised learning),本书后面的章节将讨论无监督学习技术。那么无监督学习可以回 答什么样的问题呢?来看看下面的例子。 • 聚类(clustering)问题:没有标签的情况下,我们是否能给数据分类呢?比如,给定一组照片,我们0 码力 | 797 页 | 29.45 MB | 1 年前3
机器学习课程-温州大学-10机器学习-聚类机器学习-聚类 黄海广 副教授 2 本章目录 01 无监督学习概述 02 K-means聚类 03 密度聚类和层次聚类 04 聚类的评价指标 3 1.无监督学习概述 01 无监督学习概述 02 K-means聚类 03 密度聚类和层次聚类 04 聚类的评价指标 4 1.无监督学习方法概述 监督学习 在一个典型的监督学习中,训练集有标签 在一个典型的监督学习中,训练集有标签? ,我们的目标是找到能够 区分正样本和负样本的决策边界,需要据此拟合一个假设函数。 无监督学习 与此不同的是,在无监督学习中,我们的数据没有附带任何标签?,无 监督学习主要分为聚类、降维、关联规则、推荐系统等方面。 监督学习和无监督学习的区别 5 1.无监督学习方法概述 ✓ 聚类(Clustering) ✓ 如何将教室里的学生按爱好、身高划分为5类? ✓ 降维( Dimensionality 什么商品呢? 主要的无监督学习方法 6 1.无监督学习方法概述 主要算法 K-means、密度聚类、层次聚类 聚类 主要应用 市场细分、文档聚类、图像分割、图像压缩、聚类分析、特征学习或者词 典学习、确定犯罪易发地区、保险欺诈检测、公共交通数据分析、IT资产 集群、客户细分、识别癌症数据、搜索引擎应用、医疗应用、药物活性预 测…… 7 1.无监督学习方法概述 聚类案例0 码力 | 48 页 | 2.59 MB | 1 年前3
机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入训练模型理解上文或给定条件,从概率层 面推测最符合要求的输出结果。其本质是 借助超大规模的训练参数猜测上下文的过 程 文本风格 主流思路是分离文本属性及文本内容 迁移 隐式方法即使用某类无监督学习学习或强化学 习模式将文本属性及内容自动分离,常见的有 生成对抗方式,即通过GAN实现目标属性和 文本量性完全由不同的编码控制的状态。 对话式文本生成适用于智能客服等任务型和闲聊型机器人等 r架构(例如T5,使用双向/单向attention,偏好条件文本生成) 图:Transformer典型技术场景下的原理介绍如下所述 Transformer 34 GPT-1:借助预训练,进行无监督训练和有监督微调 ◼ GPT-1模型基于Transformer解除了顺序关联和依赖性的前提,采用生成式模型方式,重点考虑了从原始文本中有效学 习的能力,这对于减轻自然语言处理(NLP)中对监督学习的依赖至关重要 ining) 无监督预训练 (Unsupervised pre-training) 不需要标注数据集,即大规 模自学阶段,在保证AI算力 充足的条件下,根据 attention机制进行自学 有监督微调 (Supervised fine-tunning) 微调,用来修正模型理解力。 即小规模指导过程,让AI在 小样本数据下进行调整 结合形成了一种使用无监督预训练和有监督0 码力 | 44 页 | 2.36 MB | 1 年前3
机器学习课程-温州大学-Scikit-learnGradientBoostingClassifier ensemble.GradientBoostingRegressor 18 2.Scikit-learn主要用法 无监督学习算法 sklearn.cluster模块包含了一系列无监督聚类算法. from sklearn.cluster import KMeans 构建聚类实例 kmeans = KMeans(n_clusters=3, random_state=0) random_state=0) 拟合 kmeans.fit(X_train) 预测 kmeans.predict(X_test) 19 2.Scikit-learn主要用法 无监督学习算法-降维 sklearn.decomposition 模块包含了一系列无监督降维算法 from sklearn.decomposition import PCA 导入PCA库,设置主成分数量为3,n_components代表主成分数量 print(pca.explained_variance_ratio_) 投影后的特征维度的方差 print(pca.explained_variance_) 20 2.Scikit-learn主要用法 无监督学习算法-聚类 DBSCAN 层次聚类 谱聚类 cluster.DBSCAN cluster.AgglomerativeClustering cluster.SpectralClustering0 码力 | 31 页 | 1.18 MB | 1 年前3
机器学习课程-温州大学-07机器学习-决策树01 决策树原理 02 ID3算法 03 C4.5算法 04 CART算法 4 长相 能 帅 不帅 家庭背景 好 能 不好 人品 好 上进心 能 不能 有 无 不能 不好 1.决策树原理 ⚫ 决策树:从训练数据中学习得出一个树状 结构的模型。 ⚫ 决策树属于判别模型。 ⚫ 决策树是一种树状结构,通过做出一系列 决策(选择)来对数据进行划分,这类似 2 , ?3,……, ??−1}为类别2。 CART的特征会多次参与节点的建立,而在ID3或C4.5的一颗子树中,离散特征只会参与一次节点的建立。 31 房子 是 否 工作 是 有 无 3,7,8,9,10,11 0,1,2,4,5,6,12,13,14 4,12,13 0,1,5,6,14 ???? ?, ?1 = 青年 = 5 15 × 2 × 2 5 × 1 − 20 码力 | 39 页 | 1.84 MB | 1 年前3
机器学习课程-温州大学-01机器学习-引言如何将教室里的学生按爱好、身高划分为5类? ✓ 降维( Dimensionality Reduction ) ✓ 如何将将原高维空间中的数据点映射到低维度的 空间中? 2. 机器学习的类型-无监督学习 18 ✓ 强化学习(Reinforcement Learning) ✓ 用于描述和解决智能体(agent)在与环境的交 互过程中通过学习策略以达成回报最大化或实现 特定目标的问题 。 Model)和非概率模型 (Non-Probabilistic Model)。 在监督学习中,概率模型可被表示为?(?|?),非概率模型则为? = ?(?)。 其中,?是输入,?是输出。 在无监督学习中,概率模型可被表示为?(?|?),非概率模型则为? = ?(?)。 其中,?是输入,?是输出。 21 决策树、朴素贝叶斯、隐马尔科夫模型、高斯混合模型属于概率模型。 感知机、支持向量0 码力 | 78 页 | 3.69 MB | 1 年前3
Qcon北京2018-《深度学习在视频搜索领域的实践》-刘尚堃pdf����——�����fasttext SuHTy vGQCVLVNH NDEHN 语k预测 非语k预测 模型解释 %01)香港小姐竞选 TB0《%01)国际h华小姐》竞选佳丽学t态走猫步无时无刻加紧练m % % 1 HOEHGGLPg初始化 ELg笑工坊唐唐脱口秀 【牛r】0Lg笑工坊 第一季a唐唐神吐槽:最作死的女神 184 3 3 % 语k h国达r秀震惊全场 h国好声音李安1+岁参加澳洲达r秀时震惊全场的表演0 码力 | 24 页 | 9.60 MB | 1 年前3
微博在线机器学习和深度学习实践-黄波数据/特征(WeiData) 数据/特征生成 数据/特征存储 数据/特征服务 2 平台架构 用户 微博 曝光/阅读 点击/互动 Feed流排序 数据样本 正样本:曝光有互动 负样本:曝光无互动 样本数据 推荐引擎 业务引擎 用户特征 女性,19-22岁,北京 爱好娱乐,明星,高 活跃…… 特征数据 数据样本 模型参数求解: 损失函数误差最小: 梯度下降等迭代求解 模型训练0 码力 | 36 页 | 16.69 MB | 1 年前3
机器学习课程-温州大学-线性代数回顾1 0, ?(?) < ? − 1 2.矩阵 11 6.有关?−?的结论 ?可逆⇔ ?? = ?; ⇔ |?| ≠ 0; ⇔ ?(?) = ?; ⇔ ?可以表示为初等矩阵的乘积; ⇔ ?无零特征值; ⇔ Ax = 0 只有零解。 2.矩阵 12 7.有关矩阵秩的结论 (1) 秩?(?)=行秩=列秩; (2) ?(??×?) ≤ min(?, ?); (3) ? ≠ 0 ⇒0 码力 | 39 页 | 856.89 KB | 1 年前3
共 18 条
- 1
- 2













