积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(6)Hadoop(6)

语言

全部中文(简体)(5)西班牙语(1)

格式

全部PDF文档 PDF(6)
 
本次搜索耗时 0.017 秒,为您找到相关结果约 6 个.
  • 全部
  • 云计算&大数据
  • Hadoop
  • 全部
  • 中文(简体)
  • 西班牙语
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 尚硅谷大数据技术之Hadoop(生产调优手册)

    ≈ 32M/s 三台服务器的带宽:12.5 + 12.5 + 12.5 ≈ 30m/s 所有网络资源都已经用满。 如果实测速度远远小于网络,并且实测速度不能满足工作需求,可以考虑采用固态硬盘 或者增加磁盘个数。 (2)如果客户端不在集群节点,那就三个副本都参与计算 2.2 测试 HDFS 读性能 1)测试内容:读取 HDFS 集群 10 个 128M 的文件 NameNode 多目录配置 1)NameNode 的本地目录可以配置成多个,且每个目录存放内容相同,增加了可靠性 2)具体配置如下 (1)在 hdfs-site.xml 文件中添加如下内容 dfs.namenode.name.dir file://${hadoop.tmp.dir}/dfs/name1 3.2 DataNode 多目录配置 1)DataNode 可以配置成多个目录,每个目录存储的数据不一样(数据不是副本) 2)具体配置如下 在 hdfs-site.xml 文件中添加如下内容 dfs.datanode.data.dir file://${hadoop.tmp.dir}/dfs/data1
    0 码力 | 41 页 | 2.32 MB | 1 年前
    3
  • pdf文档 尚硅谷大数据技术之Hadoop(入门)

    第 2 章 Hadoop 运行环境搭建(开发重点) 2.1 模板虚拟机环境准备 0)安装模板虚拟机,IP 地址 192.168.10.100、主机名称 hadoop100、内存 4G、硬盘 50G 尚硅谷大数据技术之 Hadoop(入门) ————————————————————————————— 更多 Java –大数据 权限,方便后期加 sudo 执行 root 权限的命令 [root@hadoop100 ~]# vim /etc/sudoers 修改/etc/sudoers 文件,在%wheel 这行下面添加一行,如下所示: ## Allow root to run any commands anywhere root ALL=(ALL) ALL ## Allows people /etc/hostname hadoop102 (2)配置 Linux 克隆机主机名称映射 hosts 文件,打开/etc/hosts [root@hadoop100 ~]# vim /etc/hosts 添加如下内容 192.168.10.100 hadoop100 192.168.10.101 hadoop101 192.168.10.102 hadoop102 192.168.10.103
    0 码力 | 35 页 | 1.70 MB | 1 年前
    3
  • pdf文档 大数据时代的Intel之Hadoop

    英特尔Hadoop性能优化 测试配置  性能数据在8台英特尔至强服务器组成的小规模集群上测试得到  服务器配置:6核Intel E5 CPU, 48GB内存,8块 7200rpm SATA硬盘, 千兆以太网 测试用例和性能  向HBase集群插入1KB大小的记录  每台服务器平均每秒插入1万条记录,峰值在2万条记录  每台服务器,从磁盘扫描数据,每秒完成400个扫描。
    0 码力 | 36 页 | 2.50 MB | 1 年前
    3
  • pdf文档 大数据集成与Hadoop - IBM

    业务价值,对于大部分Hadoop项目的大数据集成而言,海 量数据可扩展性是必不可少的。海量数据可扩展性意味着对 处理的数据量、处理吞吐量以及使用的处理器和处理节点数 量全无限制。只需添加更多的硬件,即可处理更多的数据,实 现更高的处理吞吐量。添加硬件资源的同时,无需修改即可运 行相同的应用程序并且性能也会随之提高(参见图1)。 关键成功因素:避免炒作,分辨是非 在这些新兴的Hadoop市场阶段,请仔细分辨听到的所有 资购买昂贵的EDW容量。 • 数据被转储到EDW之前未清理数据,一旦进入EDW环 境将永远无法进行清理工作,继而导致数据质量较差。 • 企业持续严重依赖手动编码SQL脚本来执行数据转换。 • 添加新数据源或修改现有ETL脚本较为昂贵并且需要很 长的时间,限制了快速响应最新需求的能力。 • 数据转换相对简单,因为无法使用ETL工具将较为复杂 的逻辑推送到RDBMS。 • 数据质量受到影响。 (包括Hadoop环境,但不仅限于此)创建完全受治理的数 据生命周期。以下是创建全面数据生命周期的建议步骤: • 查找:利用条款、标记和集合来查找接受治理和监管的 数据源 • 监管:为相关资产添加标记、条款和自定义属性 • 收集:通过收集来捕获资产,并开展具体的分析或治理 工作 • 协作:共享其他内容管理和治理集合 • 治理:创建并引用信息治理策略和规则;应用数据质 量、屏蔽、归档和清除操作
    0 码力 | 16 页 | 1.23 MB | 1 年前
    3
  • pdf文档 Hadoop 迁移到阿里云MaxCompute 技术方案

    hadoop queue -showacls | grep SUBMIT 命令查看 queue name ② 修改 odps-data-carrier/extra-settings.ini,添加 mapreduce.job.queuename=root.hadoop.plarch 6.4.3 方案 B:使用 Dataworks 服务迁移 Meta 和数据 6.4.3.1 操作步骤 表】参考《MaxCompute Spark 开发指南》第三节编译 datasource 并安装到本地 maven 仓库,在 pom 中添加依赖后重新打包即可。 3. 【作业需要访问 OSS】参考《MaxCompute Spark 开发指南》第四节在 pom 中添加依赖后重新 打包即可。 6.6 外表迁移 1. HDFS-> MaxCompute 的数据迁移,原则上全部迁到 MaxCompute
    0 码力 | 59 页 | 4.33 MB | 1 年前
    3
  • pdf文档 Hadoop开发指南

    httpfs_uhadoop.txt?op=CREATE&user.name=root&data=true" 注解: 1. 需要在执⾏此命令机器加上集群master1的host 2. url中需添加user.name,否则会报"HTTP Status 401 - Authentication required"错误 2.3.2 append⽂件 ⽂件 数据准备 touch append_httpfs
    0 码力 | 12 页 | 135.94 KB | 1 年前
    3
共 6 条
  • 1
前往
页
相关搜索词
硅谷大数技术Hadoop生产调优手册入门时代Intel集成IBM迁移阿里MaxCompute方案开发指南
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩