OpenShift Container Platform 4.6 分布式追踪11. ES 批量 批量处 处理器配置参数 理器配置参数 参数 参数 描述 描述 值 值 默 默认值 认值 es: bulk: actions: 在批量处理器决定向磁盘 提交更新前可添加到队列 的请求数。 1000 es: bulk: flush-interval: 提交批量 提交批量请 请求的 求的时间 时间. 要禁用批量处理器清除间 隔,请将其设置为零。 隔,请将其设置为零。 200ms es: bulk: size: 在批量处理器决定提交更 新之前,批量请求可以处 理的字节数。 5000000 es: bulk: workers: 可以接收并将批量请求提 交 Elasticsearch 的 worker 数量。 1 表 表 3.12. ES TLS 配置参数 配置参数 参数 参数 描述 描述 值 值 默 默认值 认值 actions: 在批量处理器决定向磁盘 提交更新前可添加到队列 的请求数。 0 es-archive: bulk: flush-interval: 提交批量 提交批量请 请求的 求的时间 时间. 要禁用批量处理器清除间 隔,请将其设置为零。 0s es-archive: bulk: size: 在批量处理器决定提交更 新之前,批量请求可以处0 码力 | 59 页 | 572.03 KB | 1 年前3
OpenShift Container Platform 4.8 Service Mesh户中的一个服务有用。如果将 service_id 添加到处理程序,则为其他服务启用 3scale 需 要使用不同的 service_ids 创建更多处理程序。 按照以下步骤,每个 3scale 帐户使用一个处理器: 流程 1. 为您的 3scale 帐户创建一个处理程序,并指定您的帐户凭证。省略任何服务标识符。 您可以选择在 params 部分提供一个 backend_url 字段来覆盖 3scale 资源的名 称。 3. 每当您想要添加更多服务时,请执行第 2 步将其链接到您的 3scale 帐户凭证及其服务标识符。 4. 用 3scale 配置来修改规则配置,将规则发送到 3scale 处理器。 规则 规则配置示例 配置示例 1.21.1.1. 生成 生成 3scale 自定 自定义资 义资源 源 适配器包括了一个可以用来生成 handler、instance 和 rule 自定义资源的工具。 命令自动生成模板文件,允许令牌、URL 对作为单个处理器由多个服务 共享: $ 3scale-config-gen --name=admin-credentials --url="https://- admin.3scale.net:443" --token="[redacted]" 第 第 1 章 章 SERVICE MESH 2.X 175 以下示例生成带有嵌入在处理器中的服务 ID 的模板: 0 码力 | 344 页 | 3.04 MB | 1 年前3
OpenShift Container Platform 4.8
Web 控制台使用 3scale 配置修改处理器配置。 处理器配置示例 理器配置示例 您可以选择在 params 部分提供一个 backend_url 字段来覆盖 3scale 配置提供的 URL。如果适配器与 3scale 内部实例在同一集群中运行,且您希望利用内部集群 DNS,这可能很有用。 1. 用 3scale 配置来修改规则配置,将规则发送到 3scale 处理器。 规则配置示例 配置示例 保存产生的清单的文件 不是 标准输出 --version 输出 CLI 版本并立即退出 不是 7.1.1.1.1. 从 从 URL 示例生成模板 示例生成模板 这个示例生成模板,允许多个服务作为单一处理器共享令牌, URL 对: apiVersion: "config.istio.io/v1alpha2" kind: rule metadata: name: threescale --name=admin-credentials --url="https://- admin.3scale.net:443" --token="[redacted]" 这个示例生成带有内嵌在处理器中的服务 ID 的模板: $ 3scale-gen-config --url="https:// -admin.3scale.net" --name="my-unique-id" 0 码力 | 87 页 | 1.58 MB | 1 年前3
OpenShift Container Platform 4.10 可伸缩性和性能产生影响。当节点上运行大量 I/O 高负载的 pod 时,可能会出现超载的问题。建议您监控节点上的磁盘 I/O,并使用有足够 吞吐量的卷。 podsPerCore 根据节点中的处理器内核数来设置节点可运行的 pod 数量。例如:在一个有 4 个处理器内 核的节点上将 podsPerCore 设为 10 ,则该节点上允许的最大 pod 数量为 40。 将 podsPerCore 设置为 0 可禁用这个限制。默认为 可用时,您不应该定义三个 LPAR,每个都带有四个逻辑 IFL。 检查并了解 LPAR 共享和权重. 过多的虚拟 CPU 会对性能造成负面影响。不要将比逻辑处理器定义为 LPAR 更多的虚拟处理 器。 为峰值工作负载配置每个客户机的虚拟处理器数量,而不是配置更多. 从一个小的数量开始,并监控工作负载。如有必要,逐步增加 vCPU 数量。 并非所有工作负载都适合适用高过量使用比率。如果工作负载是 Manager 管理 CPU 组并限制特定 CPU 的负载。 CPU Manager 对于有以下属性的负载有用: 需要尽可能多的 CPU 时间。 对处理器缓存丢失非常敏感。 低延迟网络应用程序。 需要与其他进程协调,并从共享一个处理器缓存中受益。 拓扑管理器(Topology Manager)从 CPU Manager、设备管理器和其他 Hint 提供者收集提示信息,以 匹配相同非统一0 码力 | 315 页 | 3.19 MB | 1 年前3
OpenShift Container Platform 4.14 分布式追踪级和监控,以及红帽构建的 OpenTelemetry Operator。 使用 OTLP 或 HTTP 和 HTTPS 报告远程集群中的追踪和指标。 通过 resourcedetection 处理器收集 OpenShift Container Platform 资源属性。 支持 OpenTelemetryCollector 自定义 resouce 中的 managed 和 unmanaged tracing-*" 的索引。 表 表 3.11. ES 批量 批量处 处理器配置参数 理器配置参数 OpenShift Container Platform 4.14 分布式追踪 分布式追踪 58 参数 参数 描述 描述 值 值 默 默认值 认值 es: bulk: actions: 在批量处理器决定向磁盘 提交更新前可添加到队列 的请求数。 1000 es: bulk: flush-interval: 提交批量 提交批量请 请求的 求的时间 时间. 要禁用批量处理器清除间 隔,请将其设置为零。 200ms es: bulk: size: 在批量处理器决定提交更 新之前,批量请求可以处 理的字节数。 5000000 es: bulk: workers: 可以接收并将批量请求提 交 Elasticsearch0 码力 | 100 页 | 928.24 KB | 1 年前3
Red Hat OpenShift Data Foundation 4.12 规划部署的虚拟机间分割。如需更多信息,请参阅内 核、 vCPU 以及超线程的比较部分。 建议对虚拟实例进行大小调整,以便它们需要偶数数量的内核。 6.4.1. 用于 IBM Power 的共享处理器池 IBM Power 有共享处理器池的概念。共享处理器池中的处理器可以在集群的节点之间共享。Red Hat OpenShift Data Foundation 所需的聚合计算容量应当是多个内核对。 6.5. 订阅要求 Red0 码力 | 37 页 | 620.41 KB | 1 年前3
OpenShift Container Platform 4.14 电源监控一个容器的 DRAM 的总能源消耗。 kepler_container_uncore_joules_total 容器使用的非核心组件所消耗的累积能源消耗。组件 数量可能因系统而异。非核心指标特定于处理器模 型,可能不适用于某些服务器 CPU。 kepler_container_package_joules_total 容器使用的 CPU 插槽所消耗的累积能源。它包含所有 核心和非核心组件。 k kepler_container_cpu_cycles_total 使用硬件计数器的容器使用的总 CPU 周期。CPU 周 期是与 CPU 频率直接相关的指标。在处理器以固定频 率运行的系统上,CPU 周期和总 CPU 时间大致等 同。在处理器运行的系统中,CPU 周期和总 CPU 时 间有不同的值。 kepler_container_cpu_instructions_total 使用硬件计数器的容器使用的总0 码力 | 20 页 | 350.27 KB | 1 年前3
OpenShift Container Platform 3.11 扩展和性能指南中,包含单个容器的 pod 实际使用两个容器。第二个容器用来在实际容器 启动前设置联网。因此,运行 10 个 pod 的系统实际上会运行 20 个容器。 pods-per-core 根据节点上的处理器内核数来设置节点可运行的 pod 数量。例如,如果将一个有 4 个处 理器内核的节点上的 pod-per-core 设置为 10,则该节点上允许的最大 pod 数量为 40。 注意 注意 将 pods-per-core ROUTER_THREADS=4 TLS 会话恢复用于加密路由。使用 HTTP keep-alive 设置,单个 HAProxy 路由器可在页面大小小到 8 kB 时充满 1 Gbit NIC。 当在使用现代处理器的裸机中运行时,性能可以期望达到以上公共云实例测试性能的大约两倍。这个开销 是由公有云的虚拟化层造成的,基于私有云虚拟化的环境也会有类似的开销。下表是有关在路由器后面的 应用程序数量的指导信息: 应 Manager 管理 CPU 组并限制特定 CPU 的负载。 CPU Manager 对于有以下属性的负载有用: 需要尽可能多的 CPU 时间。 对处理器缓存丢失非常敏感。 低延迟网络应用程序。 需要与其他进程协调,并从共享一个处理器缓存中受益。 13.2. 设置 CPU MANAGER 设置 CPU Manager: 1. 另外,还可为节点添加标签: 2. 在目标节点上启用 CPU0 码力 | 58 页 | 732.06 KB | 1 年前3
OpenShift Container Platform 4.6 节点分配资源。您可以允许 OpenShift Container Platform 自动 决定节点的最佳 system-reserved CPU 和内存资源,也可以手动为节点决定和设置最佳资源。 根据 节点上的处理器内核数和或硬限制,配置可在节点上运行的 pod 数量。 使用 pod 反关联性 安全地重新引导节点。 通过使用机器集缩减 集群来从集群中删除节点。要从裸机集群中删除节点,您必须首先排空节点 上的所有 管理每个 管理每个节 节点的 点的 POD 数量上限 数量上限 在 在 OpenShift Container Platform 中,您可以根据 中,您可以根据节 节点上的 点上的处 处理器内核数和 理器内核数和/或硬限制,来配置可在 或硬限制,来配置可在节 节 点上 点上运 运行的 行的 pod 数量。如果您同 数量。如果您同时 时使用 使用这两 这两个 个选项 选项, ,则 则取 运行有 行有 20 个容器。 个容器。 podsPerCore 参数根据 参数根据节 节点的 点的处 处理器内核数限制 理器内核数限制节 节点上可 点上可运 运行的 行的 pod 数量。例如,如果将一个有 数量。例如,如果将一个有 4 个 个 处 处理器内核的 理器内核的节 节点上的 点上的 podsPerCore 设 设置 置为 为 10, ,则该节 则该节点上允 点上允许0 码力 | 404 页 | 3.60 MB | 1 年前3
OpenShift Container Platform 4.9 节点设置为节点分配资源。您可以允许 OpenShift Container Platform 自动决 定节点的最佳 system-reserved CPU 和内存资源,也可以手动决定并为节点设置最佳资源。 根据节点上的处理器内核数、硬限制或两者,配置可在节点上运行的 pod 数量。 使用 pod 反关联性来安全地重新引导节点。 通过使用机器集缩减集群,从集群中删除节点。要从裸机集群中删除节点,您必须首先排空节点 上的所有 Container Platform 4.9 节 节点 点 182 5.4. 管理每个节点的 POD 数量上限 在 OpenShift Container Platform 中,您可以根据节点上的处理器内核数和/或硬限制,来配置可在节点 上运行的 pod 数量。如果您同时使用这两个选项,则取两者中较小的限制来限制节点上的 pod 数。 超过这些值可能会导致: OpenShift Container 包含单个容器的一个 pod 实际上会使用两个容器。第二个容器在容器实际启动前先设置了 网络。因此,运行 10 个 pod 的节点实际上运行有 20 个容器。 podsPerCore 参数根据节点的处理器内核数限制节点上可运行的 pod 数量。例如,如果将一个有 4 个处 理器内核的节点上的 podsPerCore 设置为 10,则该节点上允许的 pod 数量上限为 40。 maxPods 参数将节点上可运行的0 码力 | 374 页 | 3.80 MB | 1 年前3
共 23 条
- 1
- 2
- 3













