TiDB v5.1 Documentationaggregate the scattered data into the same system and execute secondary processing to generate a T+0 or T+1 report. The traditional solution is to use ETL and Hadoop, but the Hadoop system is complicated time range. User document, #21094 The examples of AS OF TIMESTAMP are as follows: SELECT * FROM t AS OF TIMESTAMP '2020-09-06 00:00:00'; START TRANSACTION READ ONLY AS OF TIMESTAMP '2020-09-06 00:00:00'; following situation might happen: 64 mysql> CREATE TABLE t(id INT UNIQUE KEY AUTO_INCREMENT); Query OK, 0 rows affected (0.05 sec) mysql> INSERT INTO t VALUES(),(),(); Query OK, 3 rows affected (0.00 sec)0 码力 | 2745 页 | 47.65 MB | 1 年前3
TiDB v5.3 Documentation· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 2996 15.7 T· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · aggregate the scattered data into the same system and execute secondary processing to generate a T+0 or T+1 report. The traditional solution is to use ETL and Hadoop, but the Hadoop system is complicated expressions – Fix the possible Block schema mismatch error of the Exchange operator – Fix the possible Can't compare error when comparing Decimal types – Fix the 3rd arguments of function substringUTF8 must be0 码力 | 2996 页 | 49.30 MB | 1 年前3
TiDB v5.2 Documentationaggregate the scattered data into the same system and execute secondary processing to generate a T+0 or T+1 report. The traditional solution is to use ETL and Hadoop, but the Hadoop system is complicated Improve the MySQL compatibility of the built-in functionstr_to_date for the format specifiers %b/%M/%r/%T #25767 – Fix the issue that inconsistent binding caches might be created in multiple TiDB after recreating following situation might happen: 63 mysql> CREATE TABLE t(id INT UNIQUE KEY AUTO_INCREMENT); Query OK, 0 rows affected (0.05 sec) mysql> INSERT INTO t VALUES(),(),(); Query OK, 3 rows affected (0.00 sec)0 码力 | 2848 页 | 47.90 MB | 1 年前3
TiDB v5.4 Documentation· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 3650 15.10 T· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · aggregate the scattered data into the same system and execute secondary processing to generate a T+0 or T+1 report. The traditional solution is to use ETL and Hadoop, but the Hadoop system is complicated following situation might happen: mysql> CREATE TABLE t(id INT UNIQUE KEY AUTO_INCREMENT); Query OK, 0 rows affected (0.05 sec) mysql> INSERT INTO t VALUES(),(),(); Query OK, 3 rows affected (0.00 sec)0 码力 | 3650 页 | 52.72 MB | 1 年前3
TiDB v5.2 中文手册当前绝大部分企业的业务数据都分散在不同的系统中,没有一个统一的汇总,随着业务的发展,企业 的决策层需要了解整个公司的业务状况以便及时做出决策,故需要将分散在各个系统的数据汇聚在同 一个系统并进行二次加工处理生成 T+0 或 T+1 的报表。传统常见的解决方案是采用 ETL + Hadoop 来完成, 但 Hadoop 体系太复杂,运维、存储成本太高无法满足用户的需求。与 Hadoop 相比,TiDB 就简单得多, 业务通过 TiFlash 节点上 #24724 – 支持执行 MPP 查询后将缓存中过时的 Region 无效化 #24432 – 提升内置函数 str_to_date 在格式指定器中 %b/%M/%r/%T 的 MySQL 兼容性 #25767 – 修复因对同一条查询重复创建不同 binding 可能导致的多个 TiDB 上 binding cache 不一致的问题 #26015 – 修复升级可能会导致的 ,则 TiDB 会用该列来标识行。因 此会有以下的示例情况: mysql> CREATE TABLE t(id INT UNIQUE KEY AUTO_INCREMENT); Query OK, 0 rows affected (0.05 sec) mysql> INSERT INTO t VALUES(),(),(); Query OK, 3 rows affected (0.00 sec)0 码力 | 2259 页 | 48.16 MB | 1 年前3
TiDB v5.1 中文手册当前绝大部分企业的业务数据都分散在不同的系统中,没有一个统一的汇总,随着业务的发展,企业 的决策层需要了解整个公司的业务状况以便及时做出决策,故需要将分散在各个系统的数据汇聚在同 一个系统并进行二次加工处理生成 T+0 或 T+1 的报表。传统常见的解决方案是采用 ETL + Hadoop 来完成, 但 Hadoop 体系太复杂,运维、存储成本太高无法满足用户的需求。与 Hadoop 相比,TiDB 就简单得多, 业务通过 TIMESTAMP,支持通过 Stale Read 功能从指定的时间点或时间范围内读取历史数据 (实验特性)。 用户文档,#21094 AS OF TIMESTAMP 语法示例如下: SELECT * FROM t AS OF TIMESTAMP '2020-09-06 00:00:00'; START TRANSACTION READ ONLY AS OF TIMESTAMP '2020-09-06 00:00:00'; ,则 TiDB 会用该列来标识行。因 此会有以下的示例情况: mysql> CREATE TABLE t(id INT UNIQUE KEY AUTO_INCREMENT); Query OK, 0 rows affected (0.05 sec) mysql> INSERT INTO t VALUES(),(),(); Query OK, 3 rows affected (0.00 sec)0 码力 | 2189 页 | 47.96 MB | 1 年前3
TiDB v6.1 Documentation· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 4487 17.12 T· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · aggregate the scattered data into the same system and execute secondary processing to generate a T+0 or T+1 report. The traditional solution is to use ETL and Hadoop, but the Hadoop system is complicated following situation might happen: mysql> CREATE TABLE t(id INT UNIQUE KEY AUTO_INCREMENT); Query OK, 0 rows affected (0.05 sec) mysql> INSERT INTO t VALUES(),(),(); 104 Query OK, 3 rows affected (0.000 码力 | 4487 页 | 84.44 MB | 1 年前3
TiDB v7.6 Documentation· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 6123 17.13 T· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · to aggregate scattered data into the same system and execute secondary processing to generate a T+0 or T+1 report. Compared with Hadoop, TiDB is much simpler. You can replicate data into TiDB using ETL in the following example. After the binding is created, regardless of which database the tables t1 and t2 are in, TiDB will try to use this binding to generate an execution plan for any SQL statement with0 码力 | 6123 页 | 107.24 MB | 1 年前3
TiDB v7.5 Documentation· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 6020 32 17.13 T· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · to aggregate scattered data into the same system and execute secondary processing to generate a T+0 or T+1 report. Compared with Hadoop, TiDB is much simpler. You can replicate data into TiDB using ETL cause TiDB to crash during the spill process #47538 @windtalker • Fix the issue that TiDB returns Can't find column for queries with GROUP_CONCAT #41957 @AilinKid • Fix the panic issue of batch-client in0 码力 | 6020 页 | 106.82 MB | 1 年前3
TiDB v5.3 中文手册· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 2373 15.7 T · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 当前绝大部分企业的业务数据都分散在不同的系统中,没有一个统一的汇总,随着业务的发展,企业 的决策层需要了解整个公司的业务状况以便及时做出决策,故需要将分散在各个系统的数据汇聚在同 一个系统并进行二次加工处理生成 T+0 或 T+1 的报表。传统常见的解决方案是采用 ETL + Hadoop 来完成, 但 Hadoop 体系太复杂,运维、存储成本太高无法满足用户的需求。与 Hadoop 相比,TiDB 就简单得多, 业务通过 语句中含有极长嵌套表达式时可能出现的解析错误 – 修复 Exchange 算子中可能出现的 Block schema mismatch 错误 – 修复 Decimal 类型比较时可能出现的 Can't compare 错误 – 修复 left/substring 函数中的 3rd arguments of function substringUTF8 must be constants 错 误0 码力 | 2374 页 | 49.52 MB | 1 年前3
共 46 条
- 1
- 2
- 3
- 4
- 5













