OpenShift Container Platform 4.8 日志记录61911a9ef.log" ... $ aws logs get-log-events --log-group-name mycluster-7977k.application --log-stream-name kubernetes.var.log.containers.busybox_app_busybox- da085893053e20beddd6747acdbaf98e77c3771 8388608 chunk_target_size: 8388608 ingestion_rate_mb: 8 ingestion_burst_size_mb: 16 2. 将 loki.yaml 中的更改应用到 Loki 服务器。 loki.yaml 文件示例 文件示例 429 Too Many Requests Ingestion rate limit exceeded (limit: 8388608 bytes/sec) while attempting to ingest '2140' lines totaling '3285284' bytes 429 Too Many Requests Ingestion rate limit exceeded' or '500 Internal Server Error rpc error: code = ResourceExhausted desc = grpc:0 码力 | 223 页 | 2.28 MB | 1 年前3
监控Apache Flink应用程序(入门)Flink应用程序(入门) 进度和吞吐量监控 – 10 3 https://ci.apache.org/projects/flink/flink-docs-release-1.7/dev/stream/operators/#task-chaining-and-resource-groups 4 进度和吞吐量监控 知道您的应用程序正在运行并且检查点正常工作是件好事,但是它并不能告诉您应用程序是否正在实际取得进 applies to FlinkKinesisConsumer The number of milliseconds a consumer is behind the head of the stream. For any consumer and Kinesis shard, this indicates how far it is behind the current time. 4.11 invaluable to add timestamps to your events at multiple stages (at least at creation, persistence, ingestion by Flink, publication by Flink; possibly sampling those to save bandwidth). The differences between0 码力 | 23 页 | 148.62 KB | 1 年前3
Al原生数据库与RAGInfrastructure Landscape Application Middle Platform Data Middle Platform(Modern Data Stack) Middleware Ingestion/Transport Storage Query Processing Transformation Analysis/Output Lakehouse Dashboards Embedded Operational Databases A16Z Analytics Serving OLAP Real time OLAP Clickhouse Druid Reverse ETL Stream Processing OLTP NoSQL/Multi Model Lindorm HTAP PolarDB PolarDB TSDB Search Elasticsearch0 码力 | 25 页 | 4.48 MB | 1 年前3
Pivotal HVR meetup 20190816Multiple SCD models (slides after that...) • Good “dove-tailing” with subsequent “sematic” ETL steps Ingestion into relational data lake semantic layer (cubes, marts etc..) ODS, e.g. redshift, greenplum uncompacted data in target S3 • HVR also delivers meta-data as hive external tables definitions Ingestion into data lake storage compaction storage, e.g. CSV or Avro files on S3 semantic layer (cubes need SQL access will get ‘basic’ replication Added value from HVR • Easy to setup • Performant Ingestion into data lake using streaming compaction semantic layer (cubes, marts etc..) ETL ODS, e.g0 码力 | 31 页 | 2.19 MB | 1 年前3
OpenShift Container Platform 4.14 分布式追踪为网关添加 Ingress 和 Route 配置。 支持 TempoStack 自定义资源中的 managed 和 unmanaged 状态。 在 Distributor 服务中公开以下额外的 ingestion 协议:Jaeger Thrift 二进制、Jaeger Thrift compact、Jaeger gRPC 和 Zipkin。启用网关时,只启用 OpenTelemetry 协议 (OTLP) 有关红帽技术预览功能支持范围的更多信息,请参阅技术预览功能支持范围。 1.4.5.1. 新功能及功能增 新功能及功能增强 强 此发行版本为 OpenTelemetry 的红帽构建引入了以下改进: 支持 OTLP 指标 ingestion。指标可以通过 Prometheus 导出器转发并存储在 user-workload- monitoring 中。 支持 Operator 成熟度 级别 IV、Deep Insights,它启用了对 兼容存储而不是 ElasticSearch。 大多数使用分布式追踪平台(Tempo)而不是 Jaeger 的用户都不会注意到功能的任何区别,因为分布式追 踪平台(Tempo)支持与 Jaeger 相同的 ingestion 和查询协议,并使用相同的用户界面。 如果您启用了此技术预览功能,请注意当前实现的以下限制: 分布式追踪平台(Tempo)目前不支持断开连接的安装。(TRACING-3145) 当您将 Jaeger0 码力 | 100 页 | 928.24 KB | 1 年前3
4 【王琼】容器监控架构演进 王琼 YY直播
计算指标需要多少内存 https://www.robustperception.io/how-much-ram-does-prometheus-2-x-need-for-cardinality-and-ingestion ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ prometheus alert:0 码力 | 23 页 | 2.17 MB | 1 年前3
TiDB v8.4 中文手册| | Oracle Enterprise Linux 8 及以上的版本 | x86_64 | | Ubuntu LTS 20.04 及以上的版本 | x86_64 | | CentOS 8 Stream | x86_64 ARM 64 | | Debian 10 (Buster) 及以上的版本 | x86_64 | | Fedora 38 及以上的版本 | x86_64 | | openSUSE Unbreakable Enterprise Kernel。 521 • CentOS Linux 8 的上游支持已于 2021 年 12 月 31 日终止,但 CentOS 将继续提供对 CentOS Stream 8 的支持。 • TiDB 将不再支持 Ubuntu 16.04。强烈建议升级到 Ubuntu 18.04 或更高版本。 • 从 v8.4.0 开始,TiDB 依赖 glibc 2.28。如果 Snowflake 中创建 TiDB 表对应的数据副本 在上一章节,TiDB 的增量变更日志已经被同步到 Snowflake 中,本章节将介绍如何借助 Snowflake 的 TASK 和 STREAM 功能,将实时写入 Snowflake 的数据变更日志根据 INSERT、UPDATE 和 DELETE 等事件类型分别处理,写 入一个与上游 TiDB 结构相同的表中,从而在 Snowflake0 码力 | 5072 页 | 104.05 MB | 10 月前3
TiDB v8.5 中文手册64 | | Oracle Enterprise Linux 8 及以上的版本 | x86_64 | | Ubuntu LTS 20.04 及以上的版本 | x86_64 | | CentOS Stream 8 | x86_64 ARM 64 | | Debian 10 (Buster) 及以上的版本 | x86_64 | | Fedora 38 及以上的版本 | x86_64 | | openSUSE 提供的 Unbreakable Enterprise Kernel。 – TiDB 将不再支持 Ubuntu 16.04。强烈建议升级到 Ubuntu 18.04 或更高版本。 – CentOS Stream 8 已于 2024 年 5 月 31 日 End of Builds。 525 • 对于以上两个表格中所列操作系统的 32 位版本,TiDB 在这些 32 位操作系统以及对应的 CPU 架构上不保 Snowflake 中创建 TiDB 表对应的数据副本 在上一章节,TiDB 的增量变更日志已经被同步到 Snowflake 中,本章节将介绍如何借助 Snowflake 的 TASK 和 STREAM 功能,将实时写入 Snowflake 的数据变更日志根据 INSERT、UPDATE 和 DELETE 等事件类型分别处理,写 入一个与上游 TiDB 结构相同的表中,从而在 Snowflake0 码力 | 5095 页 | 104.54 MB | 10 月前3
TiDB v5.2 中文手册Linux 操作系统可运行在物理服务器以及 VMware、KVM 及 XEN 主流虚拟化环境上。 77 • 目前尚不支持 Red Hat Enterprise Linux 8.0、CentOS 8 Stream 和 Oracle Enterprise Linux 8.0,因为 目前对这些平台的测试还在进行中。 • 不计划支持 CentOS 8 Linux,因为 CentOS 的上游支持已于 2021 内处理的,需要通过网络传输给 TiDB 处理的仅有 56 行数据,每行都满足过滤条件, 而且都很短。 • 在 TiDB (StreamAgg_20) 中和在 TiKV (└─StreamAgg_9) 中汇总行数都使用了 Stream Aggregate,该算法在内存 使用方面很有效率。 当前执行计划存在的最大问题在于谓词 start_date BETWEEN '2017-07-01 00:00:00' AND '2017-07-01 EXPLAIN 语句来查看聚合查询的执行计划。本文提供多个示例,以 帮助用户理解聚合查询是如何执行的。 SQL 优化器会选择以下任一算子实现数据聚合: • Hash Aggregation • Stream Aggregation 为了提高查询效率,数据聚合在 Coprocessor 层和 TiDB 层均会执行。现有示例如下: CREATE TABLE t1 (id INT NOT NULL PRIMARY0 码力 | 2259 页 | 48.16 MB | 1 年前3
TiDB v5.1 中文手册Linux 操作系统可运行在物理服务器以及 VMware、KVM 及 XEN 主流虚拟化环境上。 • 目前尚不支持 Red Hat Enterprise Linux 8.0、CentOS 8 Stream 和 Oracle Enterprise Linux 8.0,因为 目前对这些平台的测试还在进行中。 • 不计划支持 CentOS 8 Linux,因为 CentOS 的上游支持已于 2021 内处理的,需要通过网络传输给 TiDB 处理的仅有 56 行数据,每行都满足过滤条件, 而且都很短。 • 在 TiDB (StreamAgg_20) 中和在 TiKV (└─StreamAgg_9) 中汇总行数都使用了 Stream Aggregate,该算法在内存 使用方面很有效率。 当前执行计划存在的最大问题在于谓词 start_date BETWEEN '2017-07-01 00:00:00' AND '2017-07-01 EXPLAIN 语句来查看聚合查询的执行计划。本文提供多个示例,以 帮助用户理解聚合查询是如何执行的。 SQL 优化器会选择以下任一算子实现数据聚合: • Hash Aggregation • Stream Aggregation 为了提高查询效率,数据聚合在 Coprocessor 层和 TiDB 层均会执行。现有示例如下: 413 CREATE TABLE t1 (id INT NOT NULL0 码力 | 2189 页 | 47.96 MB | 1 年前3
共 254 条
- 1
- 2
- 3
- 4
- 5
- 6
- 26













