复杂环境下的视觉同时定位与地图构建复杂环境下的视觉同时定位与地图构建 章国锋 浙江大学CAD&CG国家重点实验室 SLAM: 同时定位与地图构建 • 机器人和计算机视觉领域的基本问题 • 在未知环境中定位自身方位并同时构建环境三维地图 • 广泛的应用 • 增强现实、虚拟现实 • 机器人、无人驾驶 SLAM常用的传感器 • 红外传感器:较近距离感应,常用于扫地机器人。 • 激光雷达:单线、多线等。 • 摄像头:单目、双目、多目等。 普通手机摄像头也可作为传感器 双目摄像头 微软Kinect彩色-深度(RGBD)传感器 手机上的惯性传感器(IMU) SLAM运行结果 • 设备根据传感器的信息 • 计算自身位置(在空间中的位置和朝向) • 构建环境地图(稀疏或者稠密的三维点云) 稀疏SLAM 稠密SLAM SLAM系统常用的框架 输入 • 传感器数据 前台线程 • 根据传感器数据进行跟踪求解, 实时恢复每个时刻的位姿 后台线程 结合双目立体视觉和超声波,实现空中精准悬停和安全航线自动生成 SLAM应用介绍 • 无人车 MobileEye、特斯拉等自动驾驶方案 以廉价的摄像头为主 Google无人车项目Waymo 使用高精度激光雷达构建地图 SLAM应用介绍 • 虚拟/增强现实:Inside-Out方案 目前绝大多数VR头盔都采用 Outside-In的定位方案,需要在环境 中放置一个或多个传感器,活动范 围受限,不支持大范围移动的定位。0 码力 | 60 页 | 4.61 MB | 1 年前3
构建基于富媒体大数据的弹性深度学习计算平台构建基于富媒体大数据的弹性深度学 习计算平台 SPEAKER / 土土@七牛 AtLab Mobile —> 富媒体时代 数据存储 数据加速 数据处理 直播 点播 Connect 每天超过10亿图像上传 超过万亿小时的音视频存储 What are they? 内容审核团队 运营分析团队 AI? Content 分类 检测 分割 跟踪 描述 搜索 分析 …0 码力 | 21 页 | 1.71 MB | 1 年前3
动手学深度学习 v2.0解决方案。不需要记住整个文本序列(例如用于固定维度表示中的机器翻译),所有需要存储的都是指 向翻译过程的中间状态的指针。这大大提高了长序列的准确性,因为模型在开始生成新序列之前不再 需要记住整个序列。 • 多阶段设计。例如,存储器网络 (Sukhbaatar et al., 2015) 和神经编程器‐解释器 (Reed and De Freitas, 2015)。它们允许统计建模者描述用于推理的迭代方法。 的例子都证明了这一进展。即使是业余的涂鸦者也可以根据描述 场景布局的草图生成照片级真实图像((Park et al., 2019) )。 • 在许多情况下,单个GPU不足以处理可用于训练的大量数据。在过去的十年中,构建并行和分布式训练 算法的能力有了显著提高。设计可伸缩算法的关键挑战之一是深度学习优化的主力——随机梯度下降, 它依赖于相对较小的小批量数据来处理。同时,小批量限制了GPU的效率。因此,在1024个GPU上进行 er31率先推出的,它使用类似于Python NumPy的语法来 描述模型。这个想法被PyTorch32、MXNet的Gluon API33和Jax34都采纳了。 “系统研究人员构建更好的工具”和“统计建模人员构建更好的神经网络”之间的分工大大简化了工作。例 如,在2014年,对卡内基梅隆大学机器学习博士生来说,训练线性回归模型曾经是一个不容易的作业问题。而 现在,这项任务只需不到10行代0 码力 | 797 页 | 29.45 MB | 1 年前3
机器学习课程-温州大学-特征工程1 2021年09月 机器学习-特征工程 黄海广 副教授 2 本章目录 01 相关概念 02 特征构建 03 特征提取 04 特征选择 3 1. 相关概念 01 认识Python 01 相关概念 02 特征构建 03 特征提取 04 特征选择 4 许永洪,吴林颖.中国各地区人口特征和房价波动的动态关系[J].统计研究,2019 目的 作用 是把原始数据转变为模型的训练数据的过程 获取更好的训练数据特征,使得机器学习模型逼 近这个上限 ➢ 使模型的性能得到提升 ➢ 在机器学习中占有非常重要的作用 构成 ➢ 特征构建 ➢ 特征提取 ➢ 特征选择 特征工程相关概念 1. 相关概念 5 通过这张图可以看出,各种不 同算法在输入的数据量达到一 定级数后,都有相近的高准确 度。于是诞生了机器学习界的 名言: 成功的机器学习应用不是 有明显物理或统计意义的 特征子集 ➢ 能表示出每个特征对于模 型构建的重要性 特征提取VS特征选择 1. 相关概念 7 2. 特征构建 01 相关概念 02 特征构建 03 特征提取 04 特征选择 8 许永洪,吴林颖.中国各地区人口特征和房价波动的动态关系[J].统计研究,2019,36(01) 特征构建:是指从原始数 据中人工的找出一些具有 物理意义的特征。0 码力 | 38 页 | 1.28 MB | 1 年前3
PyTorch OpenVINO 开发实战系列教程第一篇的读者来说,通过本章学习认识 Pytorch 框架,搭建 好 Pytorch 的开发环境,通过一系列的基础代码练习与演示建立起对深度学习 与 Pytorch 框架的感性认知。 本书内容以 Python 完成全部代码构建与程序演示。本章的主要目标是帮助初 次接触 Python 与 Pytorch 的读者搭建好开发环境,认识与理解 Pytorch 框架 中常见的基础操作函数、学会使用它们完成一些基础的数据处理与流程处理, 取了之前一些深度学习框架优点,开发难度大大降低、很容易 构建各种深度学习模型并实现分布式的训练,因此一发布就引 发学术界的追捧热潮,成为深度学习研究者与爱好者的首选开 发工具。在 pytorch 发布之后两年的 2018 年 facebook 又把 caffe2 项目整合到 pytorch 框架中,这样 pytorch 就进一步 整合原来 caffe 开发者生态社区,因为其开发效率高、特别容 易构建各种复杂的深度学习模型网络,因此很快得到大量人工 1.2 Pytorch 的模块与功能 Pytorch 当前支持绝大数的深度学习常见的算子操作,基于相 关的功能模块可以快速整合数据、构建与设计模型、实现模型 训练、导出与部署等操作。这些功能的相关模块主要有如下: 1)torch.nn 包,里面主要包含构建卷积神经网络的各种算子 操作,主要包括卷积操作(Conv2d、Conv1d、Conv3d)激 活函数、序贯模型 (Sequential)、功能函数0 码力 | 13 页 | 5.99 MB | 1 年前3
全连接神经网络实战. pytorch 版. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.1 导入 pytorch 6 1.2 导入样本数据 7 2 构建神经网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3.1 模型的加载与保存 15 3.2 初始化网络权重-方法一 16 3.3 初始化网络权重-方法二和三 17 4 构建自己的数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 可以存储自定义数据,我们可以继承 Dataset 类,在子类中实现一些固定 功能的函数,这样就相当于封装了自己的数据为 Dataset 类型。为了方便起见,我们先描述如何 使用预加载数据,然后第二章就开始构建神经网络模型。等第四章我们再描述如何自定义数据集。 我们一次写一个完整的程序来把数据可视化一下: from torchvision import datasets from torchvision0 码力 | 29 页 | 1.40 MB | 1 年前3
AI大模型千问 qwen 中文文档5,我们建议您使用 vLLM。vLLM 是一个用于 LLM 推理和服务的快速且易于使用的框架。以 下,我们将展示如何使用 vLLM 构建一个与 OpenAI API 兼容的 API 服务。 首先,确保你已经安装 vLLM>=0.3.0 : pip install vllm 运行以下代码以构建 vllm 服务。此处我们以 Qwen1.5-7B-Chat 为例: python -m vllm.entrypoints 5-7B-Chat 进行对话。 1.3.1 基本用法 你只需借助 transformers 库编写几行代码,就能与 Qwen1.5-Chat 进行对话。实质上,我们通过 from_pretrained 方法构建 tokenizer 和模型,然后利用 generate 方法,在 tokenizer 提供的 chat template 的辅助下进行 chat。以下是一个如何与 Qwen1.5-7B-Chat 进行对话的示例: pip install -e . 假设你已经基于 Qwen1.5-7B 模型进行了微调,并将其命名为 Qwen1.5-7B-finetuned ,且使用的是你 自己的数据集,比如 Alpaca。若要构建你自己的 AWQ 量化模型,你需要使用训练数据进行校准。以下,我 们将为你提供一个简单的演示示例以便运行: from awq import AutoAWQForCausalLM from transformers0 码力 | 56 页 | 835.78 KB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112回归问题 2.1 神经元模型 2.2 优化方法 2.3 线性模型实战 2.4 线性回归 2.5 参考文献 第 3 章 分类问题 3.1 手写数字图片数据集 3.2 模型构建 3.3 误差计算 3.4 真的解决了吗 3.5 非线性模型 3.6 表达能力 3.7 优化方法 3.8 手写数字图片识别体验 3.9 小结 3.10 参考文献 的方式实现,来开发出智能系统。 但是这种显式的规则往往过于简单,并且很难表达复杂、抽象的概念和规则。这一阶段被 称为推理期。 1970 年代,科学家们尝试通过知识库加推理的方式解决人工智能,通过构建庞大复杂 的专家系统来模拟人类专家的智能水平。这些明确指定规则的方式存在一个最大的难题, 就是很多复杂、抽象的概念无法用具体的代码实现。比如人类对图片的识别、对语言的理 解过程,根本无法通过既定规 的计算时间明显上升,而 GPU 能充分发挥并行计算优势, 运算时间几乎不变。 图 1.21 CPU/GPU 矩阵相乘时间 2) 自动梯度 在使用 PyTorch 构建前向计算过程的时候,除了能够获得数值结果,PyTorch 还会自动 构建计算图,通过 PyTorch 提供的自动求导的功能,不需要手动推导,就可计算输出对网 络参数的偏导数。考虑如下函数的表达式: = ?? + ?? + ?0 码力 | 439 页 | 29.91 MB | 1 年前3
机器学习课程-温州大学-12机器学习-关联规则FP-growth算法只需要对数据库进行两次扫描,而Apriori算法在求每个潜在 的频繁项集时都需要扫描一次数据集,所以说Apriori算法是高效的。其中 算法发现频繁项集的过程是: (1)构建FP树; (2)从FP树中挖掘频繁项集。 28 3.FP-Growth算法 FP-growth算法思想 该算法和Apriori算法最大的不同有两点: 第一,不产生候选集 第二,只需要两次遍历数据库,大大提高了效率。 项集数量排序 统计每个项目的数量 支持度阈值=50%=>0.5*6=3=>最小子项目数量=3 33 3.FP-Growth算法 构建FP树 1.考虑到根节点为空(null)。 Null ① 创建树的根。根由null表示。 34 3.FP-Growth算法 构建FP树 1.考虑到根节点为空(null)。 2. T1:I1、I2、I3的第一次扫描包含三个项目{I1:1}、 {I2:1} 再次扫描数据库并检查事务。检查第一个事务并找出其中的项集。计数 最大的项集在顶部,计数较低的下一个项集,以此类推。这意味着树的 分支是由事务项集按计数降序构造的。 35 3.FP-Growth算法 构建FP树 1.考虑到根节点为空(null)。 2. T1:I1、I2、I3的第一次扫描包含三个项目{I1:1}、 {I2:1}、{I3:1},其中I2作为子级链接到根,I1链接到I2 ,I3链接到I1。0 码力 | 49 页 | 1.41 MB | 1 年前3
机器学习课程-温州大学-03深度学习-PyTorch入门float32; torch.float np.float64 torch.float64; torch.double np.int64 torch.int64; torch.long 从已有数据构建 np.array([3.2, 4.3], dtype=np.float16) torch.tensor([3.2, 4.3],dtype=torch.float16) x.copy() x.clone() 3. 神经网络 可以使用torch.nn包来构建神经网络. 你已知道autograd包,nn包依赖autograd 包来定义模型并求导.一个nn.Module包含各个层和一个forward(input)方法,该 方法返回output。 典型的神经网络 28 神经网络关键组件及相互关系 3. 神经网络 29 PyTorch构建网络工具 torch.nn Module Linear Model() Loss() torch.autograd. backward Torch.optims .step parallel init nn.ModuleDict 定义网络层 构建网络 前向传播 反向传播 优化参数 3. 神经网络 30 3. 神经网络 神经网络的典型训练过程如下: • 定义神经网络模型,它有一些可学习的参数(或者权重); • 在数据集上迭代; •0 码力 | 40 页 | 1.64 MB | 1 年前3
共 35 条
- 1
- 2
- 3
- 4













