积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部数据库(45)后端开发(29)云计算&大数据(21)区块链(21)TiDB(14)Hadoop(11)PieCloudDB(11)Greenplum(9)系统运维(5)机器学习(4)

语言

全部中文(简体)(101)

格式

全部PDF文档 PDF(90)其他文档 其他(11)
 
本次搜索耗时 0.044 秒,为您找到相关结果约 101 个.
  • 全部
  • 数据库
  • 后端开发
  • 云计算&大数据
  • 区块链
  • TiDB
  • Hadoop
  • PieCloudDB
  • Greenplum
  • 系统运维
  • 机器学习
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • 其他文档 其他
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 尚硅谷大数据技术之Hadoop(生产调优手册)

    –python 人工智能资料下载,可百度访问:尚硅谷官网 尚硅谷大数据技术之 Hadoop(生产调优手 册) (作者:尚硅谷大数据研发部) 版本:V3.3 第 1 章 HDFS—核心参数 1.1 NameNode 内存生产配置 1)NameNode 内存计算 每个文件块大概占用 150byte,一台服务器 128G 内存为例,能存储多少文件块呢? html#concept_fzz_dq4_gbb 具体修改:hadoop-env.sh export HDFS_NAMENODE_OPTS="-Dhadoop.security.logger=INFO,RFAS - Xmx1024m" export HDFS_DATANODE_OPTS="-Dhadoop.security.logger=ERROR,RFAS -Xmx1024m" ——————————————————————————————————————— 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网 1.2 NameNode 心跳并发配置 1)hdfs-site.xml The number of Namenode RPC server threads that listen to requests from clients. If
    0 码力 | 41 页 | 2.32 MB | 1 年前
    3
  • pdf文档 Greenplum数据仓库UDW - UCloud中立云计算服务商

    128 访问 访问UDW数据仓库 数据仓库 1 客⼾端⼯具访问UDW 2 图形界⾯的⽅式访问UDW 数据导⼊ 数据导⼊ insert加载数据 copy加载数据 外部表并⾏加载数据 从hdfs加载数据 从mysql中导⼊数据 从oracle中导⼊数据 从ufile加载数据 开发指南 开发指南 1、连接数据库 2、数据库管理 3、模式管理 4、表格设计 5、加载数据 6、分区表 使⽤案例 案例⼀ 利⽤ logstash+Kafka+UDW 对⽇志数据分析 案例⼆ 基于UDW实现⽹络流分析 PXF 扩展 扩展 配置 PXF 服务 创建 EXTENSION 读写 HDFS ⽬录 Greenplum数据仓库 UDW Copyright © 2012-2021 UCloud 优刻得 4/206 194 196 198 198 198 200 201 pg_dump 导出数据 使⽤ psql 重建数据 利⽤ 利⽤ hdfs 外部表迁移数据 外部表迁移数据 1. 在原 greenplum 集群中创建 hdfs pxf 可写外部表 2. 将原 greenplum 集群表数据写⼊ hdfs 3. 在⽬的 greenplum 集群中创建 hdfs pxf 可读表 4. 从 hdfs 外部表中读取数据并写⼊⽬的 greenplum 集群 FAQs
    0 码力 | 206 页 | 5.35 MB | 1 年前
    3
  • pdf文档 尚硅谷大数据技术之Hadoop(入门)

    ,检索海量速度慢。 4)学习和模仿Google解决这些问题的办法 :微型版Nutch。 5)可以说Google是Hadoop的思想之源(Google在大数据方面的三篇论文) GFS --->HDFS Map-Reduce --->MR BigTable --->HBase 尚硅谷大数据技术之 Hadoop(入门) ——————— 人工智能资料下载,可百度访问:尚硅谷官网 1.5 Hadoop 组成(面试重点) Hadoop1.x、2.x、3.x区别 MapReduce(计算) HDFS(数据存储) Yarn(资源调度) Common(辅助工具) MapReduce (计算+资源调度) HDFS(数据存储) Common(辅助工具) Hadoop1.x组成 Hadoop2.x组成 在 Hadoop1.x 时 代 , Hadoop中的MapReduce同 资 源 的 调 度 , MapReduce 只负 责 运算 。 Hadoop3.x在组成上没 有变化。 1.5.1 HDFS 架构概述 Hadoop Distributed File System,简称 HDFS,是一个分布式文件系统。 HDFS架构概述 1)NameNode(nn):存储文件的元数据,如文件名,文件目录结构,文件属性(生成时间、副本数、 文件权限),以及
    0 码力 | 35 页 | 1.70 MB | 1 年前
    3
  • pdf文档 银河麒麟服务器操作系统V4 Hadoop 软件适配手册

    ......................................................................................... 2 1.4 HDFS 架构原理 ............................................................................................ .................................................................................... 5 2.2.4 配置 HDFS-SIZE.XML .................................................................................... 5 实现了一个分布式文件系统(Hadoop Distributed File System),简称 HDFS。HDFS 有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件 上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有 着超大数据集(large data set)的应用程序。HDFS 放宽了(relax)POSIX 的要求, 可以以流的形式访问(streaming
    0 码力 | 8 页 | 313.35 KB | 1 年前
    3
  • pdf文档 Hadoop 概述

    Hadoop 概述 本章内容提要 ● Hadoop 的组件 ● HDFS、MapReduce、YARN、ZooKeeper 和 Hive 的角色 ● Hadoop 与其他系统的集成 ● 数据集成与 Hadoop Hadoop 是一种用于管理大数据的基本工具。这种工具满足了企 业在大型数据库(在 Hadoop 中亦称为数据湖)管理方面日益增长的 需求。当 Common 是常见工具和库的集合,用于支持其他 Hadoop 模块。和 其他软件栈一样,这些支持文件是一款成功实现的必要条件。而众 所周知的文件系统,Hadoop 分布式文件系统,或者说 HDFS,则是 Hadoop 的核心,然而它并不会威胁到你的预算。如果要分析一组数 据,你可以使用 MapReduce 中包含的编程逻辑,它提供了在 Hadoop 群集上横跨多台服务器的可扩展性。为实现资源管理,可考虑将 并不是你能够应付的任务。建议在尝试安装 Hadoop 之前,你需要 先熟悉此类环境。 1.1.2 Hadoop 分布式文件系统(HDFS) 在 Hadoop Common 安装完成后,是时候该研究 Hadoop Stack 的其余组件了。HDFS(Hadoop Distributed File System)提供一个分布 式文件系统,设计目标是能够运行在基础硬件组件之上。大多数企
    0 码力 | 17 页 | 583.90 KB | 1 年前
    3
  • pdf文档 百度智能云 Apache Doris 文档

    query_timeout success_file_name success_file_name Baidu 百度智能云文档 SQL手册 27 该命令主要用于通过 Broker 服务进程来导入远端存储(如BOS、HDFS)上的数据。 每个导入需要指定一个唯一的 Label。后续可以通过这个 label 来查看作业进度。 用于描述一组需要导入的文件。 数据合并类型。默认为 APPEND,表示本次导入是普通的追加写操作。MERGE 指定需要使用的 Broker 服务名称。在公有云 Doris 中。Broker 服务名称为 指定 broker 所需的信息。这些信息通常被用于 Broker 能够访问远端存储系统。如 BOS 或 HDFS。关于具体信息,可参阅 Broker 文档。 指定导入的相关参数。目前支持以下参数: 导入超时时间。默认为 4 小时。单位秒。 最大容忍可过滤(数据不规范等原因)的数据比例。默认零容忍。取值范围为 入到两个表中。 使用通配符匹配导入两批文件 和 。分别导入到 和 两张表中。其中 指定 导入到分区 中,并且将导入源文件中第二列和第三列的值 +1 后导入。 3. 从 HDFS 导入一批数据。 LOAD LOAD LABEL example_db LABEL example_db..label1 label1 (( DATA DATA INFILE
    0 码力 | 203 页 | 1.75 MB | 1 年前
    3
  • pdf文档 Hadoop开发指南

    HOME export HADOOP_YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop D_LIBRARY_PATH 让环境⽣效 source /etc/profile或者 source ~/.bashrc 2. HDFS HDFS是⼀个⾼度容错性和⾼吞吐量的分布式⽂件系统。它被设计的易于扩展也易于使⽤,适合海量⽂件的存储。 2.1 HDFS基础操作 基础操作 查询⽂件 Usage: hadoop fs [generic options] -ls [-d] [-h] [-R] [-ignoreCrc] [-crc] ... 更多请参考: hadoop fs -help 2.2 WebHDFS WebHDFS提供HDFS的RESTful接⼝,可通过此接⼝进⾏HDFS⽂件操作。使⽤WebHDFS时,客⼾端是先通过Namenode节点获取⽂件所在的Datanode地址,再通过与Datanode节点 进⾏数据交互。 2.2.1 上传⽂件 上传⽂件
    0 码力 | 12 页 | 135.94 KB | 1 年前
    3
  • pdf文档 通过Oracle 并行处理集成 Hadoop 数据

    据库中的数据整合在一起以提 取对业务用户有价值的信息。 本文详细介绍了如何从 Oracle 数据库访问存储在 Hadoop 集群里的数据。请注 意,本文选择了 Hadoop 和 HDFS 作为示例,但这里的策略同样适用于其他分 布式存储机制。本文中介绍了各种访问方法,还通过一个具体示例说明了其中一 种访问方法的实现。 2 Oracle 白皮书 — 通过 Oracle 数据库中直接访问 HDFS(Hadoop 文件系统)中存储的 数据。遗憾的是,常规的操作系统无法调用外部表驱动直接访问 HDFS 文件。FUSE(File System in Userspace)项目针对这种情况提供了解决方法。有多种 FUSE 驱动程序支持用户挂 载 HDFS 存储,并将其作为常规文件系统处理。通过使用一个此类驱动程序,并在数据库实 例上挂载 HDFS(如果是 RAC 数据库,则在其所有实例上挂载 数据库,则在其所有实例上挂载 HDFS),即可使用外部表基 础架构轻松访问 HDFS 文件。 图 1. 用数据库内置的 MapReduce 通过外部表进行访问 在图 1 中,我们利用 Oracle Database 11g 实现本文所述的数据库内的 mapreduce。通常情况 下,Oracle Database 11g 中的并行执行框架足以满足针对外部表大多数的并行操作。
    0 码力 | 21 页 | 1.03 MB | 1 年前
    3
  • pdf文档 Ozone:Hadoop 原生分布式对象存储

    Ozone,同时提供对象和文件访问的接 口,从构架上解决了长久以来困扰HDFS的小文件问题。本文作为Ozone系列文章的第一篇,抛个 砖,介绍Ozone的产生背景,主要架构和功能。 如果想及时了解Spark、Hadoop或者HBase相关的文章,欢迎关注微信公众号:iteblog_hadoop 背景 HDFS是业界默认的大数据存储系统,在业界的大数据集群中有非常广泛的使用。HDFS集群有着 很高的稳定性,得益于它较简单的 据节点,保存上 百PB数据的集群也不鲜见。 HDFS通过把文件系统元数据全部加载到Namenode内存中,给客户端提供了低延迟的元数据访问 。由于元数据需要全部加载到内存,所以一个HDFS集群能支持的最大文件数,受JAVA堆内存的限 制,上限大概是4亿左右个文件。所以HDFS适合大量大文件(几百兆以上)的集群,如果集群中 有非常多的小文件,HDFS的元数据访问性能会受到影响。虽然可以通过各种Federation技术来扩 ation技术来扩 展集群的节点规模, 但单个HDFS集群仍然没法很好的解决小文件的限制。 基于这些背景,Hadoop 社区推出了新的分布式存储系统 Ozone,从构架上解决这个问题。 Ozone的设计原则 Ozone 由一群对大规模Hadoop集群有着丰富运维和管理经验的工程师和构架师设计和实现。他 们对大数据有深刻的洞察力,清楚的了解HDFS的优缺点,这些洞察力自始自终影响了Ozone的设
    0 码力 | 10 页 | 1.24 MB | 1 年前
    3
  • pdf文档 Hadoop 3.0以及未来

    开源贡献、基于Intel平台的开源顷目优化以及一些基于Spark的大 规模机器/深度学习顷目。 • 超过9年的互联网、云计算、大数据的工作经验。 概要 • Hadoop的历叱 • Hadoop 3介绍  Common  HDFS  YARN  MapReduce • Hadoop的未来发展方向 Hadoop的历叱 2004 2005 2012 2007 2008 2009 2010 2011 2006 2013 Hadoop生态系统 文件存储层 HDFS 资源/任务调度 YARN 计算引擎MapReduce 计算引擎Spark NoSQL HBase 数据仓 库SQL 机器/深 度学习 Batch 任务 流处理 搜索 … Kafka Hadoop 3介绍 • Common  JDK 8+ 升级  Classpath隔离  Shell脚本的重构 • HDFS • YARN • MapReduce MapReduce Classpath隔离 • HADOOP-11656, HDFS-6200 问题:依赖性地狱(Dependency Hell),版本冲突 解决方案:客户端(client-side)和服务器端(server-side)的隔离 Shell脚本的重构 - HADOOP-9902 • 脚本重构,提升可维护性和易用性 • 修正一些长期存在的bugs • 加入一些改进 • 加入一些新功能
    0 码力 | 33 页 | 841.56 KB | 1 年前
    3
共 101 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 11
前往
页
相关搜索词
硅谷大数技术Hadoop生产调优手册Greenplum数据仓库数据仓库UDWUCloud中立计算服务服务商入门银河麒麟务器服务器操作系统操作系统V4软件适配概述百度智能ApacheDoris文档开发指南通过Oracle并行处理并行处理集成Ozone原生分布布式分布式对象存储3.0以及未来
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩