TiDB v5.1 Documentation57 2.5.3 TiDB TPC-H 100GB Performance Test Report – TiDB v5.1 MPP mode vs. Greenplum 6.15.0 and Apache Spark 3.1.1 · · · · · · · · · · · · · · · · 59 2.6 MySQL Compatibility· · · · · · · · · · · · · the abort process allows the system to generate core dump files when TiKV panics. The default value is false, which means it is not allowed to generate core dump files. 32 Configuration file Configuration scaling #10005 – Solve OOM issues in multiple cases #10183 * Add memory usage tracking for each module * Solve the OOM issue caused by oversized Raft entries cache * Solve the OOM issue caused by stacked0 码力 | 2745 页 | 47.65 MB | 1 年前3
TiDB v5.3 Documentation66 2.5.3 TiDB TPC-H 100GB Performance Test Report – TiDB v5.3 MPP mode vs. Greenplum 6.15.0 and Apache Spark 3.1.1 · · · · · · · · · · · · · · · · 70 2.6 MySQL Compatibility· · · · · · · · · · · · · Simplify the algorithm of L0 flow control #10879 – Improve the error log report in the raft client module #10944 – Improve logging threads to avoid them becoming a performance bottleneck #10841 – Add statistics feature by collecting the multi-column order dependency information. – Refactor the statistics module, including deleting the TopN value from CMSKetch and the histogram, and adding NDV information for0 码力 | 2996 页 | 49.30 MB | 1 年前3
TiDB v5.2 Documentation56 2.5.3 TiDB TPC-H 100GB Performance Test Report – TiDB v5.2 MPP mode vs. Greenplum 6.15.0 and Apache Spark 3.1.1 · · · · · · · · · · · · · · · · 58 2.6 MySQL Compatibility· · · · · · · · · · · · · statistics feature by collecting the multi-column order dependency information. – Refactor the statistics module, including deleting the TopN value from CMSKetch and the histogram, and adding NDV information for Greenplum 6.15.0 and Apache Spark 3.1.1 2.5.3.1 Test overview This test aims at comparing the TPC-H 100GB performance of TiDB v5.2 in the MPP mode with that of Greenplum and Apache Spark, two mainstream0 码力 | 2848 页 | 47.90 MB | 1 年前3
TiDB v5.4 Documentation· · · 70 2.5.3 TiDB TPC-H Performance Test Report – TiDB v5.4 MPP mode vs. Greenplum 6.15.0 and Apache Spark 3.1.1 · · · · · · · · · · · · · · · · · · · · · · 74 2.6 MySQL Compatibility· · · · · · · Greenplum 6.15.0 and Apache Spark 3.1.1 2.5.3.1 Test overview This test aims at comparing the TPC-H 100 GB performance of TiDB v5.4 in the MPP mode with that of Greenplum and Apache Spark, two mainstream in this report are as follows: • TiDB v5.4 columnar storage in the MPP mode • Greenplum 6.15.0 • Apache Spark 3.1.1 + Parquet 2.5.3.2 Test environment 2.5.3.2.1 Hardware prerequisite 74 Instance type0 码力 | 3650 页 | 52.72 MB | 1 年前3
TiDB v6.1 DocumentationCloud and Snowflake · · · · · · · · · · · · · · · · · · · · · 726 7.1.2 Integrate with Apache Kafka and Apache Flink · · · · · · · · · · · · · · · · · · · · 726 7.2 Integration Scenarios · · · · · · Confluent Cloud and Snowflake · · · · · · · · · · · · · · · · 726 7.2.2 Integrate Data with Apache Kafka and Apache Flink · · · · · · · · · · · · · · · 741 8 Maintain 746 8.1 Upgrade· · · · · · · · · · · variable max_allowed_packet does not take effect #31422 • Fix the issue of memory leak in the TopSQL module #34525 #34502 • Fix the issue that the Plan Cache might be wrong on the PointGet plan #32371 • Fix0 码力 | 4487 页 | 84.44 MB | 1 年前3
TiDB v7.5 DocumentationCloud and Snowflake · · · · · · · · · · · · · · · · · · · · · 800 7.1.2 Integrate with Apache Kafka and Apache Flink · · · · · · · · · · · · · · · · · · · · 800 7.2 Integration Scenarios · · · · · · Confluent Cloud and Snowflake · · · · · · · · · · · · · · · · 800 7.2.2 Integrate Data with Apache Kafka and Apache Flink · · · · · · · · · · · · · · · 815 8 Maintain 820 8.1 Upgrade· · · · · · · · · · · of encoding and decoding workers in the redo module. TiCDC flush- �→ worker �→ -num Newly added Controls the number of flushing workers in the redo module. 54 Configuration file Configuration parame-0 码力 | 6020 页 | 106.82 MB | 1 年前3
TiDB v7.6 DocumentationCloud and Snowflake · · · · · · · · · · · · · · · · · · · · · 814 7.1.2 Integrate with Apache Kafka and Apache Flink · · · · · · · · · · · · · · · · · · · · 814 7.2 Integration Scenarios · · · · · · Confluent Cloud and Snowflake · · · · · · · · · · · · · · · · 814 7.2.2 Integrate Data with Apache Kafka and Apache Flink · · · · · · · · · · · · · · · 829 8 Maintain 834 8.1 Upgrade· · · · · · · · · · · required for application development. • Understand the way applications interact with TiDB. • To learn core components and concepts of building up the distributed database TiDB and TiDB Cloud, refer to the0 码力 | 6123 页 | 107.24 MB | 1 年前3
TiDB v6.5 DocumentationCloud and Snowflake · · · · · · · · · · · · · · · · · · · · · 798 7.1.2 Integrate with Apache Kafka and Apache Flink · · · · · · · · · · · · · · · · · · · · 798 7.2 Integration Scenarios · · · · · · Confluent Cloud and Snowflake · · · · · · · · · · · · · · · · 798 7.2.2 Integrate Data with Apache Kafka and Apache Flink · · · · · · · · · · · · · · · 813 8 Maintain 818 8.1 Upgrade· · · · · · · · · · · previously set by the configuration item txn-total-size-limit) is now tracked by the memory management module: when the memory consumption of a single ses- sion reaches the threshold defined by the system variable0 码力 | 5282 页 | 99.69 MB | 1 年前3
TiDB v8.4 DocumentationCloud and Snowflake · · · · · · · · · · · · · · · · · · · · · 895 7.1.2 Integrate with Apache Kafka and Apache Flink · · · · · · · · · · · · · · · · · · · · 895 8 7.2 Integration Scenarios · · · · · Confluent Cloud and Snowflake · · · · · · · · · · · · · · · · 895 7.2.2 Integrate Data with Apache Kafka and Apache Flink · · · · · · · · · · · · · · · 910 8 Maintain 915 8.1 Security · · · · · · · · · · search method based on data semantics, which provides �→ more relevant search results. As one of the core functions of AI and �→ large language models (LLMs), vector search can be used in various �→ scenarios0 码力 | 6705 页 | 110.86 MB | 10 月前3
TiDB v7.1 DocumentationCloud and Snowflake · · · · · · · · · · · · · · · · · · · · · 811 7.1.2 Integrate with Apache Kafka and Apache Flink · · · · · · · · · · · · · · · · · · · · 811 7.2 Integration Scenarios · · · · · · Confluent Cloud and Snowflake · · · · · · · · · · · · · · · · 811 7.2.2 Integrate Data with Apache Kafka and Apache Flink · · · · · · · · · · · · · · · 826 8 Maintain 831 8.1 Upgrade· · · · · · · · · · · required for application development. • Understand the way applications interact with TiDB. • To learn core components and concepts of building up the distributed database TiDB and TiDB Cloud, refer to the0 码力 | 5716 页 | 104.74 MB | 1 年前3
共 40 条
- 1
- 2
- 3
- 4













