案,采用计算、存储分离的架构,可对计算、存储分别进行扩缩容,计算最大支持 512 节点,每个节点 最大支持 1000 并发,集群容量最大支持 PB 级别。 • 实时 HTAP 场景 TiDB 适用于需要实时处理的
大规模数据和高并发场景。TiDB 在 4.0 版本中引入列存储引擎 TiFlash,结合 行存储引擎 TiKV 构建真正的 HTAP 数据库,在增加少量存储成本的情况下,可以在同一个系统中做联机 交易处理、实时数据分析,极大地节省企业的成本。 通过这种架构,TiDB 能够支持更
大规模、更高负载的集群。 33
用于处理更大事务的批量 DML 执行方式(实验特性) | 大批量的 DML 任务,例如大规模的清理任务、连接或聚合,可能会消耗大量内存, BR �→ 快照恢复速度 (GA) | 通过该功能,BR 可以充分利用集群的规模优势,使 TiKV �→ 集群中的所有节点都能参与到数据恢复的准备阶段,从而显著提升大规模集群中大数据集的恢复速度 �→ 。实际测试表明,该功能可将下载带宽打满,下载速度可提升 8 到 10 倍,端到端恢复速度大约提升 �→ 1.5 到 3 倍。 | 增强在有大量表时缓存 0 码力 |
4805 页 |
101.28 MB
| 1 年前 3 案,采用计算、存储分离的架构,可对计算、存储分别进行扩缩容,计算最大支持 512 节点,每个节点 最大支持 1000 并发,集群容量最大支持 PB 级别。 • 实时 HTAP 场景 TiDB 适用于需要实时处理的大规模数据和高并发场景。TiDB 在 4.0 版本中引入列存储引擎 TiFlash,结合 行存储引擎 TiKV 构建真正的 HTAP 数据库,在增加少量存储成本的情况下,可以在同一个系统中做联机 交易处理、实时数据分析,极大地节省企业的成本。 快照恢复速度(从 v8.0.0 开始 GA) | 通过该功能,BR 可以充分利用集群的规模优势,使 TiKV �→ 集群中的所有节点都能参与到数据恢复的准备阶段,从而显著提升大规模集群中大数据集的恢复速度 �→ 。实际测试表明,该功能可将下载带宽打满,下载速度可提升 8 到 10 倍,端到端恢复速度大约提升 �→ 1.5 到 3 倍。 | 33
用于处理更大事务的批量 DML 执行方式(实验特性,从 v8.0.0 开始引入) | 大批量的 DML 任务,例如大规模的清理任务、连接或聚合,可能会消耗大量内存, �→ 并且在非常大的规模上受到限制。批量 DML (tidb_dml_type = "bulk") 是一种新的 �→ DML 0 码力 |
4807 页 |
101.31 MB
| 1 年前 3 案,采用计算、存储分离的架构,可对计算、存储分别进行扩缩容,计算最大支持 512 节点,每个节点 最大支持 1000 并发,集群容量最大支持 PB 级别。 • 实时 HTAP 场景 TiDB 适用于需要实时处理的大规模数据和高并发场景。TiDB 在 4.0 版本中引入列存储引擎 TiFlash,结合 行存储引擎 TiKV 构建真正的 HTAP 数据库,在增加少量存储成本的情况下,可以在同一个系统中做联机 交易处理、实时数据分析,极大地节省企业的成本。 以二进制包形式安装各工具 6.3 50 TiB 数据导入最佳实践 本文提供了将大规模数据导入 TiDB 的最佳实践,包括影响数据导入的一些关键因素和操作步骤。PingCAP 在 内部环境和客户现场都曾成功导入过 50 TiB 以上的大单表数据,基于这些真实的应用场景,沉淀了本文中的 最佳实践,希望可以帮你更顺畅更高效地导入大规模数据。 TiDB Lightning(物理导入模式)是一款用于将离线数据 Lightning 实例进行并行导入。 • 如果源文件数据规模特别大(比如达到 50 TiB 及以上),在使用并行导入的同时,还需要针对源数据特 点、表定义、参数配置等进行一定的准备和调优,才能更好、更快地完成大规模的数据导入。 本文中的以下内容同时适用于导入多表和导入大单表: • 关键因素 • 准备源文件 • 预估存储空间 • 配置参数 • 解决 “checksum mismatch” 问题 • 0 码力 |
5072 页 |
104.05 MB
| 10 月前 3 案,采用计算、存储分离的架构,可对计算、存储分别进行扩缩容,计算最大支持 512 节点,每个节点 最大支持 1000 并发,集群容量最大支持 PB 级别。 • 实时 HTAP 场景 TiDB 适用于需要实时处理的大规模数据和高并发场景。TiDB 在 4.0 版本中引入列存储引擎 TiFlash,结合 行存储引擎 TiKV 构建真正的 HTAP 数据库,在增加少量存储成本的情况下,可以在同一个系统中做联机 交易处理、实时数据分析,极大地节省企业的成本。 以二进制包形式安装各工具 6.3 50 TiB 数据导入最佳实践 本文提供了将大规模数据导入 TiDB 的最佳实践,包括影响数据导入的一些关键因素和操作步骤。PingCAP 在 内部环境和客户现场都曾成功导入过 50 TiB 以上的大单表数据,基于这些真实的应用场景,沉淀了本文中的 最佳实践,希望可以帮你更顺畅更高效地导入大规模数据。 TiDB Lightning(物理导入模式)是一款用于将离线数据 Lightning 实例进行并行导入。 • 如果源文件数据规模特别大(比如达到 50 TiB 及以上),在使用并行导入的同时,还需要针对源数据特 点、表定义、参数配置等进行一定的准备和调优,才能更好、更快地完成大规模的数据导入。 本文中的以下内容同时适用于导入多表和导入大单表: • 关键因素 • 准备源文件 • 预估存储空间 • 配置参数 • 解决 “checksum mismatch” 问题 • 0 码力 |
5095 页 |
104.54 MB
| 10 月前 3 案,采用计算、存储分离的架构,可对计算、存储分别进行扩缩容,计算最大支持 512 节点,每个节点 最大支持 1000 并发,集群容量最大支持 PB 级别。 • 实时 HTAP 场景 TiDB 适用于需要实时处理的大规模数据和高并发场景。TiDB 在 4.0 版本中引入列存储引擎 TiFlash,结合 行存储引擎 TiKV 构建真正的 HTAP 数据库,在增加少量存储成本的情况下,可以在同一个系统中做联机 交易处理、实时数据分析,极大地节省企业的成本。 Operator 进行部署。 从 v8.2.0 开始,PD 微服务支持通过 TiUP 进行部署。你可以在集群中单独部署 tso 微服务和 scheduling 微 服务,从而实现 PD 的性能扩展,解决大规模集群下 PD 的性能瓶颈问题。当 PD 出现明显的性能瓶颈且 无法升级配置的情况下,建议考虑使用该模式。 更多信息,请参考用户文档。 • 为切换资源组的操作增加权限控制 #53440 @glorv 以二进制包形式安装各工具 6.3 50 TiB 数据导入最佳实践 本文提供了将大规模数据导入 TiDB 的最佳实践,包括影响数据导入的一些关键因素和操作步骤。PingCAP 在 内部环境和客户现场都曾成功导入过 50 TiB 以上的大单表数据,基于这些真实的应用场景,沉淀了本文中的 最佳实践,希望可以帮你更顺畅更高效地导入大规模数据。 TiDB Lightning(物理导入模式)是一款用于将离线数据 0 码力 |
4987 页 |
102.91 MB
| 10 月前 3 案,采用计算、存储分离的架构,可对计算、存储分别进行扩缩容,计算最大支持 512 节点,每个节点 最大支持 1000 并发,集群容量最大支持 PB 级别。 • 实时 HTAP 场景 TiDB 适用于需要实时处理的大规模数据和高并发场景。TiDB 在 4.0 版本中引入列存储引擎 TiFlash,结合 行存储引擎 TiKV 构建真正的 HTAP 数据库,在增加少量存储成本的情况下,可以在同一个系统中做联机 交易处理、实时数据分析,极大地节省企业的成本。 优化了 Region 打散算法,可以迅速 将恢复任务拆分为大量小任务,并批量分散到所有 TiKV 节点上。新的并行恢复算法充分利用每个 TiKV 节点的所有资源,实现了并行快速恢复。在实际案例中,大规模 Region 场景下,集群快照恢复速度最 高提升约 10 倍。 目前,新的粗粒度 Region 打散算法为实验特性,你可以配置 br 新增的命令行参数 --granularity=" �→ coarse-grained" 以二进制包形式安装各工具 563 6.3 50 TiB 数据导入最佳实践 本文提供了将大规模数据导入 TiDB 的最佳实践,包括影响数据导入的一些关键因素和操作步骤。PingCAP 在 内部环境和客户现场都曾成功导入过 50 TiB 以上的大单表数据,基于这些真实的应用场景,沉淀了本文中的 最佳实践,希望可以帮你更顺畅更高效地导入大规模数据。 TiDB Lightning(物理导入模式)是一款用于将离线数据 0 码力 |
4666 页 |
101.24 MB
| 1 年前 3 案,采用计算、存储分离的架构,可对计算、存储分别进行扩缩容,计算最大支持 512 节点,每个节点 最大支持 1000 并发,集群容量最大支持 PB 级别。 • 实时 HTAP 场景 TiDB 适用于需要实时处理的大规模数据和高并发场景。TiDB 在 4.0 版本中引入列存储引擎 TiFlash,结合 行存储引擎 TiKV 构建真正的 HTAP 数据库,在增加少量存储成本的情况下,可以在同一个系统中做联机 交易处理、实时数据分析,极大地节省企业的成本。 com/zh/tidb/v7.5/tidb �→ -distributed-execution-framework" target="_blank">分布式执行框架, �→ 可分布式执行导入任务,提升了大规模数据导入时的效率。 | 34
选择0 码力 |
4590 页 |
100.91 MB
| 1 年前 3 案,采用计算、存储分离的架构,可对计算、存储分别进行扩缩容,计算最大支持 512 节点,每个节点 最大支持 1000 并发,集群容量最大支持 PB 级别。 • 实时 HTAP 场景 TiDB 适用于需要实时处理的大规模数据和高并发场景。TiDB 在 4.0 版本中引入列存储引擎 TiFlash,结合 行存储引擎 TiKV 构建真正的 HTAP 数据库,在增加少量存储成本的情况下,可以在同一个系统中做联机 交易处理、实时数据分析,极大地节省企业的成本。 以二进制包形式安装各工具 565 6.3 50 TiB 数据导入最佳实践 本文提供了将大规模数据导入 TiDB 的最佳实践,包括影响数据导入的一些关键因素和操作步骤。PingCAP 在 内部环境和客户现场都曾成功导入过 50 TiB 以上的大单表数据,基于这些真实的应用场景,沉淀了本文中的 最佳实践,希望可以帮你更顺畅更高效地导入大规模数据。 TiDB Lightning(物理导入模式)是一款用于将离线数据 Lightning 实例进行并行导入。 • 如果源文件数据规模特别大(比如达到 50 TiB 及以上),在使用并行导入的同时,还需要针对源数据特 点、表定义、参数配置等进行一定的准备和调优,才能更好、更快地完成大规模的数据导入。 本文中的以下内容同时适用于导入多表和导入大单表: • 关键因素 • 准备源文件 • 预估存储空间 • 配置参数 • 解决 “checksum mismatch” 问题 • 0 码力 |
4369 页 |
98.92 MB
| 1 年前 3
|