2. Clickhouse玩转每天千亿数据-趣头条我们遇到的问题 Too many parts(304). Merges are processing significantly slower than inserts. 分析: 1:直接落盘,异步merge - background_pool_size 2:一个Insert Request,涉及N个分区的数据,在磁盘上就会生成N个数据目录,merge跟不上 3:一个目录,一个zxid,z0 码力 | 14 页 | 1.10 MB | 1 年前3
4. ClickHouse在苏宁用户画像场景的实践1 关亍我 苏宁科技集团大数据中心架构师 曾就职亍中兴通讯10+years ,从事大规模分布式系统研发 10+years C++、Java、Go编程经验,熟悉大数据架构、解决方案 ClickHouse Contributor Github: https://github.com/andyyzh Contents0 码力 | 32 页 | 1.47 MB | 1 年前3
共 2 条
- 1













