· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 2516 13.12.3 TiProxy
流量回放 · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 4180 15.5.3 业务
流量迁入· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 线业务的服务质量。
TiProxy 流量捕获和回放 �→ (实验特性) | 在进行集群升级、迁移或部署变更等重要操作之前,使用 TiProxy 捕获 TiDB 生产集群的真实负载, �→ 并在测试的目标集群中重 0 码力 |
5095 页 |
104.54 MB
| 10 月前 3 · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 2498 13.13.3 TiProxy 流量回放 · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 4159 15.5.3 业务流量迁入· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 线业务的服务质量。 | TiProxy 流量捕获和回放 �→ (实验特性) | 在进行集群升级、迁移或部署变更等重要操作之前,使用 TiProxy 捕获 TiDB 生产集群的真实负载, �→ 并在测试的目标集群中重 0 码力 |
5072 页 |
104.05 MB
| 10 月前 3 · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 1929 13.7.3 业务流量迁入· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · TiKV 后台任务写入限制 (TiKV Write Rate Limiter) TiKV Write Rate Limiter 通过平滑 TiKV 后台任务如 GC,Compaction 等的写入流量,保证读写请求的延迟稳定 性。TiKV 后台任务写入限制默认值为 “0MB”,建议将此限制设置为磁盘的最佳 I/O 带宽,例如云盘厂商 指定的最大 I/O 带宽。 用户文档,#9156 • 解决多个扩缩容时的调度稳定性问题 调度器后出现的非预期统计行为 #3602 – 解决扩缩容过程中出现的多个调度问题 * 优化副本 snapshot 生成流程,解决扩缩容调度慢问题:#3563 #10059 #10001 * 解决由于流量变化引带来的心跳压力引起的调度慢问题 #3693 #3739 #3728 #3751 * 减少大集群由于调度产生的空间差异问题,并优化调度公式防止由于压缩率差异大引发的类 似异构空间集群的爆盘问题 0 码力 |
2189 页 |
47.96 MB
| 1 年前 3 · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 2070 13.7.3 业务流量迁入· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 支持灾备场景下的最终一致性复制 在主从灾备架构下,当生产集群(即 TiCDC 同步的上游集群)发生灾难、且短时间内无法恢复对外提供 服务时,TiCDC 具备保证从集群数据一致性的能力,并允许业务快速的将流量切换至从集群,避免数据 库长时间不可用而对业务造成影响。 该功能支持 TiCDC 将 TiDB 集群的增量数据复制到备用关系型数据库 TiDB/Aurora/MySQL/MariaDB,在 TiCDC 部分列统计信息的方案,提高宽表收集统计信息的速度 • TiKV – 增强磁盘空间防护能力,提升存储稳定性。 针对 TiKV 遇到磁盘写满错误时可能 Panic 的问题,为磁盘剩余空间引入两级阈值防御机制,避免超 额流量耗尽磁盘空间。同时,提供阈值触发时的空间回收能力。当剩余空间触发阈值时,部分写 操作会失败,并返回 disk full 错误和盘满节点列表。此时,可以通过 Drop/Truncate Table 或者扩 0 码力 |
2374 页 |
49.52 MB
| 1 年前 3 无关的桥梁,为增量能力提供了基 础。 增量 增量是 ShardingSphere 的主要能 力,在拦截访问数据库流量的前提 下,透明化的提供增量功能。增强 包含了流量的重定向(数据分片、 读写分离、影子库)、流量变形 (数据加密)、流量鉴权(SQL 审 计、权限)、流量治理(熔断、限 流)以及流量分析(可观察性、服 务质量分析)等。 可插拔 可插拔是 ShardingSphere 的设计 理念,架构内核是完全面向顶层接 0 码力 |
31 页 |
2.36 MB
| 1 年前 3 · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 3688 15.5.3 业务流量迁入· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 和tidb_broadcast_join_threshold_size 的阈值(此时这两个变量将不再生效),TiDB 会自动估算不同 Join 算法所需进行网络交换的数据量,然后选择综合开销较小的算法,从而减少网络流量,提升 MPP 查 询性能。 更多信息,请参考用户文档。 • 支持自适应副本读取缓解读热点 #14151 @sticnarf @you06 在读热点场景中,热点 TiKV 无法及时处理读请求,导致读请求排队。但是,此时并非所有 已生效。 3.4.6 HTAP 性能监控 在 TiDB 的使用过程中,可以选择以下方式监控 TiDB 集群运行情况并查看性能数据。 • TiDB Dashboard:查看集群整体运行概况,分析集群读写流量分布及趋势变化,详细了解耗时较长的 SQL 语句的执行信息。 • 监控系统 (Prometheus & Grafana):查看 TiDB 集群各组件(包括 PD、TiDB、TiKV、TiFlash 0 码力 |
4369 页 |
98.92 MB
| 1 年前 3 · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 2504 13.4.3 业务流量迁入· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · Raft Engine(实验特性) 支持使用 Raft Engine 作为 TiKV 的日志存储引擎。与使用 RocksDB 相比,Raft Engine 可以减少至多 40% 的 TiKV I/O 写流量和 10% 的 CPU 使用,同时在特定负载下提升 5% 左右前台吞吐,减少 20% 尾延迟。此外,Raft Engine 提升了日志回收效率,修复了极端条件下日志堆积的问题。 Raft Engine 已生效。 3.4.6 HTAP 性能监控 在 TiDB 的使用过程中,可以选择以下方式监控 TiDB 集群运行情况并查看性能数据。 • TiDB Dashboard:查看集群整体运行概况,分析集群读写流量分布及趋势变化,详细了解耗时较长的 SQL 语句的执行信息。 • 监控系统 (Prometheus & Grafana):查看 TiDB 集群各组件(包括 PD、TiDB、TiKV、TiFlash 0 码力 |
2852 页 |
52.59 MB
| 1 年前 3 · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 3887 15.5.3 业务流量迁入· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · tart-max-cpu 控制 TiKV 执行周期性全量数据整理时的 CPU 使用率阈值。 periodic-full-compact-start-max-cpu 默认是 10%,即为了减少对业务流量的影响,只有当 TiKV 的 CPU 利用率低于 10% 时,才会触发周期性全量数据整理。 更多信息,请参考用户文档。 2.2.1.3 稳定性 • 跨数据库绑定执行计划 #48875 @qw4990 已生效。 3.4.6 HTAP 性能监控 在 TiDB 的使用过程中,可以选择以下方式监控 TiDB 集群运行情况并查看性能数据。 • TiDB Dashboard:查看集群整体运行概况,分析集群读写流量分布及趋势变化,详细了解耗时较长的 SQL 语句的执行信息。 • 监控系统 (Prometheus & Grafana):查看 TiDB 集群各组件(包括 PD、TiDB、TiKV、TiFlash 0 码力 |
4666 页 |
101.24 MB
| 1 年前 3
|