通过Oracle 并行处理集成 Hadoop 数据白皮书 2011 年 1 月 通过 Oracle 并行处理集成 Hadoop 数据 1 Oracle 白皮书 — 通过 Oracle 并行处理集成 Hadoop 数据 引言 本文详细介绍了如何从 Oracle 数据库访问存储在 Hadoop 集群里的数据。请注 意,本文选择了 Hadoop 和 HDFS 作为示例,但这里的策略同样适用于其他分 布式存储机制。本文中介绍了各种访问方法,还通过一个具体示例说明了其中一 种访问方法的实现。 2 Oracle 白皮书 — 通过 Oracle 并行处理集成 Hadoop 数据 外部 Hadoop 数据的访问方法 要从 Oracle 数据库里访问某个文件系统中的外部文件或外部数据,最简单的方法莫过于使用 外部表。请参阅这里了解外部表。 外部表以表的形式展示存储在文件系统中的数据,并且可在 SQL 查询中完全透明地使用。 因此,可以考虑用外部表从 Oracle 数据库中直接访问 HDFS(Hadoop 文件系统)中存储的 数0 码力 | 21 页 | 1.03 MB | 1 年前3
大数据集成与Hadoop - IBM数据集, 并可根据需求变化从单一服务器扩展到数以千计的服务器。主 要的Hadoop组件包括Hadoop Distributed File System (用于存储大型文件)和Hadoop分布式并行处理框架(称为 MapReduce)。 但是,Hadoop基础架构本身并没有提供完整的大数据集成解 决方案,摆在人们面前的既有挑战,也有机遇,只有处理好这些 问题,才能安享各项优势,最大限度提高投资回报率 解更多信息,文中对该主题进行了详细讨论:http://bit. ly/1v2UXAT 4 大数据集成与 Hadoop 源数据 转换 净化 丰富 EDW 连续 单处理器 SMP系统 MPP群集系统或GRID 4 路并行 64 路并行 CPU CPU CPU CPU CPU 内存 共享内存 磁盘 磁盘 关键成功因素:大数据集成平台必须支持全部三个维度的可 扩展性 • 线性数据可扩展性:硬件和软件系统通过线性增加硬件 据可扩展性,这意味着在设计之初,并未考虑利用非共享大规模 并行架构。它们依靠共享的内存多线程,而非软件数据流。 此外,有些供应商不支持将大数据集分散在多个节点间,无法对 独立数据分区并行运行单一数据集成作业,也无法实现设计一 次作业,无需重新设计和重新调整作业即可在任何硬件配置中 非共享架构 从头开始创建软件,以便 利用非共享的大规模并行 架构,方法是将数据集分 散到多个计算节点,执行 单一应用程序(对每个数0 码力 | 16 页 | 1.23 MB | 1 年前3
Hadoop 概述大数据解决方案 4 Machine,VM)或笔记本电脑上完成初始配置,而且可以升级到服务 器部署。它具有高度的容错性,并且被设计为能够部署在低成本的 硬件之上。它提供对应用程序数据的高吞吐量访问,适合于面向大 型数据集的应用程序。 在任何环境中,硬件故障都是不可避免的。有了 HDFS,你的 数据可以跨越数千台服务器,而每台服务器上均包含一部分基础数 据。这就是容错功能发挥作用的地方。现实情况是,这么多服务器 的设计针对批处理做了优化,它提供高吞吐量的数据访 问,而非低延迟的数据访问。运行在 HDFS 上的应用程序有着大型 数据集。在 HDFS 中一个典型的文件大小可以达到数百 GB 或更大, 所以 HDFS 显然支持大文件。它提供高效集成数据带宽,并且单个 群集可以扩展至数百节点。 Hadoop 是一个单一功能的分布式系统,为了并行读取数据集并 提供更高的吞吐量,它与群集中的机器进行直接交互。可将 MapReduce 来处理它。 1.1.3 MapReduce 是什么 MapReduce 是 Hadoop 的一个编程组件,用于处理和读取大型 数据集。MapReduce 算法赋予了 Hadoop 并行化处理数据的能力。 简而言之,MapReduce 用于将大量数据浓缩为有意义的统计分析结 果。MapReduce 可以执行批处理作业,即能在处理过程中多次读取 大量数据来产生所需的结果。0 码力 | 17 页 | 583.90 KB | 1 年前3
Hadoop 迁移到阿里云MaxCompute 技术方案................................................................................... 20 5.3 阶段 3:并行测试,割接 ............................................................................................. 分析型数据存储:对数据进行处理加工后,面向应用场景,将数据以结构化的方式进行存储, 以便分析工具或分析应用能够获取数据。如利用 MPP 数据仓库、Spark SQL 等支持 BI 工具 访问,利用 Hbase 实现低延迟的在线服务等 分析与报表:对数据进行分析和展现以获取洞察。如 BI 工具、jupyter 等。 数据作业编排:将多个数据处理动作(数据移动、处理转换等)编排成为工作流并周期性地 模的存储及计算需求,最大可达 EB 级别。同一个 MaxCompute 项目支持企业从创业团队发展到独角兽的 数据规模需求; 数据分布式存储,多副本冗余,数据存储对外仅开放表的 操作接口,不提供文件系统访问接口 自研数据存储结构,表数据列式存储,默认高度压缩,后 D k n e P y l w s o u ) ( ( f I w s A n t S B M / ) g p L K n0 码力 | 59 页 | 4.33 MB | 1 年前3
MATLAB与Spark/Hadoop相集成:实现大数据的处理和价值挖
MATLAB与Spark/Hadoop相集成:实现大 数据的处理和价值挖 马文辉 2 内容 ▪ 大数据及其带来的挑战 ▪ MATLAB大数据处理 ➢ tall数组 ➢ 并行与分布式计算 ▪ MATLAB与Spark/Hadoop集成 ➢ MATLAB访问HDFS(Hadoop分布式文件系统) ➢ 在Spark/Hadoop集群上运行MATLAB代码 ▪ 应用演示 – 汽车传感器数据分析 3 大数据概述 价值密度的高低与数据总量的大小成反比 ▪ Velocity - 数据处理速度,数据处理速度需要快速 数据处理速度是决定大数据应用的关键 4 大数据带来的挑战 ▪ 传统的工具和方法不能有效工作 – 访问和处理数据变得困难; – 需要学习使用新的工具和新的编程方式; – 不得不重写算法以应对数据规模的增大; ▪ 现有处理或计算方法下的结果质量受到影响 – 被迫只能处理一部分数据(数据子集); – Desktop (Multicore, GPU) ▪ Clusters ▪ Cloud Computing (MDCS on EC2) ▪ Hadoop ▪ Spark ▪ 内存与数据访问 ▪ 64-bit processors ▪ Memory Mapped Variables ▪ Disk Variables ▪ Databases ▪ Datastore ▪ ImageDatastore0 码力 | 17 页 | 1.64 MB | 1 年前3
尚硅谷大数据技术之Hadoop(入门)尚硅谷大数据技术之 Hadoop(入门) ————————————————————————————— 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网 尚硅谷大数据技术之 Hadoop(入门) (作者:尚硅谷大数据研发部) 版本:V3.3 第 1 章 Hadoop 概述 1.1 Hadoop 是什么 Hadoop是什么 尚硅谷大数据技术之 Hadoop(入门) ————————————————————————————— 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网 Hadoop发展历史 6)2003-2004年,Google公开了部分GFS和MapReduce思想的细节,以此为基础Doug Cutting等人用 了2年业余时间实现了DFS 尚硅谷大数据技术之 Hadoop(入门) ————————————————————————————— 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网 官网地址:http://hadoop.apache.org 下载地址:https://hadoop.apache.org/releases.html 2)Cloudera Hadoop0 码力 | 35 页 | 1.70 MB | 1 年前3
尚硅谷大数据技术之Hadoop(生产调优手册)尚硅谷大数据技术之 Hadoop(生产调优手册) ——————————————————————————————————————— 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网 尚硅谷大数据技术之 Hadoop(生产调优手 册) (作者:尚硅谷大数据研发部) 版本:V3.3 第 1 章 HDFS—核心参数 1.1 NameNode 尚硅谷大数据技术之 Hadoop(生产调优手册) ——————————————————————————————————————— 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网 3579 Jps [atguigu@hadoop102 ~]$ jmap -heap 2611 Heap Configuration: MaxHeapSize 尚硅谷大数据技术之 Hadoop(生产调优手册) ——————————————————————————————————————— 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网 1.2 NameNode 心跳并发配置 1)hdfs-site.xml The number of Namenode RPC server threads that listen0 码力 | 41 页 | 2.32 MB | 1 年前3
银河麒麟服务器操作系统V4 Hadoop 软件适配手册有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件 上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有 着超大数据集(large data set)的应用程序。HDFS 放宽了(relax)POSIX 的要求, 可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop 的框架最核心的设计就是:HDFS 和 MapReduce。HDFS master/slave 架构。一个 HDFS 集群包含一个单独的 NameNode 和多个 DataNode。 NameNode 作为 master 服务,它负责管理文件系统的命名空间和客户端对文 件的访问。NameNode 会保存文件系统的具体信息,包括文件信息、文件被分割 成具体 block 块的信息、以及每一个 block 块归属的 DataNode 的信息。对于整个 集群来说,HDFS 通过 介绍 MapReduce 是一种计算模型,该模型可以将大型数据处理任务分解成很多单 个的、可以在服务器集群中并行执行的任务,而这些任务的计算结果可以合并在 一起来计算最终的结果。简而言之,Hadoop Mapreduce 是一个易于编程并且能在 大型集群(上千节点)快速地并行得处理大量数据的软件框架,以可靠,容错的 方式部署在商用机器上。MapReduce 这个术语来自两个基本的数据转换操作:map0 码力 | 8 页 | 313.35 KB | 1 年前3
Spark 简介以及与 Hadoop 的对比Hadoop 的对比 1 Spark 简介 1.1 Spark 概述 Spark 是 UC Berkeley AMP lab 所开源的类 Hadoop MapReduce 的通用的并行计算框 架,Spark 基于 map reduce 算法实现的分布式计算,拥有 Hadoop MapReduce 所具有的 优点;但不同于 MapReduce 的是 Job 中间输出和结果可以保存在内存中,从而不再需要读 RDD 是 Spark 的最基本抽象,是对分布式内存的抽象使用,实现了以操作本地集合的方式 来操作分布式数据集的抽象实现。RDD 是 Spark 最核心的东西,它表示已被分区,不可变的 并能够被并行操作的数据集合,不同的数据集格式对应不同的 RDD 实现。RDD 必须是可序 列化的。RDD 可以 cache 到内存中,每次对 RDD 数据集的操作之后的结果,都可以存放到 内存中,下一个操作可以直接从内存中输入,省去了0 码力 | 3 页 | 172.14 KB | 1 年前3
Hadoop 3.0以及未来可靠性 存储效率 单副本 0 100% 3副本 2 33% XOR(6个数据单元) 1 86% RS(6,3) 3 67% RS(10,4) 4 71% 存储布局-连续和条状 小文件处理 并行IO 数据本地性 数据本地性 小文件处理 纠错码在分布式存储系统中 HDFS 性能 多个Standby Namenode Active NN Standby NN Standby0 码力 | 33 页 | 841.56 KB | 1 年前3
共 12 条
- 1
- 2













