Apache Karaf Decanter 2.x - DocumentationAPACHE KARAF DECANTER 2.X - DOCUMENTATION Apache Software Foundation APACHE KARAF DECANTER 2.X - DOCUMENTATION 1. User Guide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . harvest the monitoring data, and send this data to the Decanter appenders. Apache Karaf Decanter 2.x - Documentation - 1 Two kinds of collector are available: • Event Driven Collectors react to events make sure you enable the log collector to actually process the message logs. Apache Karaf Decanter 2.x - Documentation - 2 1.2.3. LOG SOCKET The Decanter Log Socket Collector is an event driven collector0 码力 | 64 页 | 812.01 KB | 1 年前3
OpenShift Container Platform 4.8 Service Mesh. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 目 目录 录 第 第 1 章 章 SERVICE MESH 2.X 1.1. 关于 OPENSHIFT SERVICE MESH 1.2. SERVICE MESH 发行注记 1.3. 了解 SERVICE MESH 1.4. 服务网格部署模型 1.5. SERVICE 308 310 328 337 目 目录 录 1 OpenShift Container Platform 4.8 Service Mesh 2 第 1 章 SERVICE MESH 2.X 1.1. 关于 OPENSHIFT SERVICE MESH 注意 注意 因为 Red Hat OpenShift Service Mesh 的发行节奏与 OpenShift Container whitelist。这些更改将在即将发行的几个发行本中逐渐实施。有关更多详情,请参阅我 们的首席技术官 Chris Wright 提供的消息。 1.2.2. 新功能及功能增强 第 第 1 章 章 SERVICE MESH 2.X 3 此版本对以下方面进行了改进。 1.2.2.1. Red Hat OpenShift Service Mesh 版本 版本 2.2.3 的新功能 的新功能 此 Red Hat OpenShift0 码力 | 344 页 | 3.04 MB | 1 年前3
Apache Karaf Decanter 1.x - Documentationdirectly uses the Elasticsearch HTTP REST API. It’s compliant with any Elasticsearch version (1.x and 2.x). • decanter-appender-elasticsearch-native-1.x is an appender which uses the Elasticsearch 1.x Java decanter-appender-elasticsearch-native-2.x is an appender which uses the Elasticsearch 2.x Java Client API. It’s compliant only with Elasticsearch 2.x versions. These appenders store the data (coming from the collectors) REST API appender uses the Elasticsearch REST API. It works with any Elasticsearch version (1.x and 2.x). The decanter-appender-elasticsearch-rest feature installs this appender: This feature installs0 码力 | 67 页 | 213.16 KB | 1 年前3
這些年,我們一起追的HadoopHadoop 2.x 架構 比較基本的模組: Hadoop Common (Core Libraries) Hadoop HDFS (Storage) Hadoop MapReduce (Computing Engine) Hadoop YARN (Resource Management + Job Scheduling / Monitoring) 比較沒人知道的事: Hadoop 2.x 也默默地做了四五年了 去年就已經把 Hadoop 2.x 部署在 35,000+ Node 跑了六 個月以上 ... 21 / 74 1. Submit Job 2. 建構特定 AM 3. 向 RM 註冊 AM 4. 送 Request 給 RM 5. 配置啟動 Container 6. AM/Container 溝通 7. Client/AM 溝通 8. 回收 AM Hadoop 2.x 架構 - MapReduce0 码力 | 74 页 | 45.76 MB | 1 年前3
严选 ServiceMesh 实践基于严选第一代ServiceMesh(cNginx) 类型 功能 能力提供方 服务调用方(Client) 服务提供方(Server) 服务注册与发现 注册发现:基于 Consul √ 调用控制 协议支持:HTTP 1.X/2.X,可扩展至 TCP √ 路由控制:提供简单的路由能力 √ 负载均衡:支持 RR、权重、一致性 Hash 等 √ 流量复制:不提供 × 故障转移:继承 Nginx 的 Failover 机制 √ 能力提供方 服务调用方(Client) 服务提供方(Server) 服务注册与发现 注册发现:云外基于 Consul,云内基于 K8s 默认的 ETCD √ 调用控制 协议支持:HTTP 1.X/2.X,GRPC,WebSocket,Dubbo, Thrift √ 路由控制:静态路由、动态路由、流量染色、分流控制等 √ 负载均衡:支持 RR、权重、一致性 Hash 等 √ 流量复制:Envoy0 码力 | 25 页 | 2.07 MB | 6 月前3
Apache Karaf Container 4.x - Documentationusers of previous Apache Karaf version. NOTE For the users upgrading from Karaf 2.x, please see the "Update Notes (from 2.x to 3.x)" in the Karaf 3.x documentation first. NOTE Karaf 4.x supports Java8 and options. In term of development, you can still use the blueprint definition as you do in Karaf 2.x & 3.x (with the corresponding annotations). However, in Karaf 4.x, you can use DS and new annotations install bundles required by features. For "old style" feature (features XML using namespace from Karaf 2.x or 3.x), this feature is not enabled. As soon as you use a "new style" feature (with namespace 1.30 码力 | 370 页 | 1.03 MB | 1 年前3
Apache Kyuubi 1.6.1 Documentationorg/flink/flink-docs-stable/docs/dev/table/sql/set/] Logging Kyuubi uses log4j [https://logging.apache.org/log4j/2.x/] for logging. You can configure it using $KYUUBI_HOME/conf/log4j2.xml. 2.x, FLINK_HADOOP_CLASSPATH should be set to hadoop classpath to use Hadoop vanilla jars. For users which 1. Monitoring Kyuubi - Logging System Kyuubi uses Apache Log4j2 [https://logging.apache.org/log4j/2.x/] for logging since version v1.5.0. For versions v1.4.1 and below, it uses Apache Log4j [https://logging0 码力 | 401 页 | 5.42 MB | 1 年前3
Apache Kyuubi 1.6.0 Documentationorg/flink/flink-docs-stable/docs/dev/table/sql/set/] Logging Kyuubi uses log4j [https://logging.apache.org/log4j/2.x/] for logging. You can configure it using $KYUUBI_HOME/conf/log4j2.xml. 2.x, FLINK_HADOOP_CLASSPATH should be set to hadoop classpath to use Hadoop vanilla jars. For users which 1. Monitoring Kyuubi - Logging System Kyuubi uses Apache Log4j2 [https://logging.apache.org/log4j/2.x/] for logging since version v1.5.0. For versions v1.4.1 and below, it uses Apache Log4j [https://logging0 码力 | 391 页 | 5.41 MB | 1 年前3
Service Mesh的延伸 — 论道Database MeshSphere 业务代码 Sharding- Sphere 应用 应用 注册中心Sharding-Sphere:APM演进线路图 JDBC + 数据分片 版本:1.X 数据库治理 版本:2.X Proxy 版本:3.0.X 分布式事务 版本:3.1.X Sidecar 版本:4.0.X 多数据副本 版本:4.1.X 弹性伸缩 版本:4.2.X 已完成 图例: 进行中 规0 码力 | 35 页 | 4.56 MB | 6 月前3
机器学习课程-温州大学-02深度学习-神经网络的编程基础根据计算图搭建方式,可将计算图分为动态图和静态图 PyTorch 是支持动态图的,可以在进行运算的同时进行 TensorFlow 是支持静态图的,需要在计算之前,先进行搭 建( TensorFlow 2.X引入了动态图 ) 21 4.静态图与动态图 TensorFlow:先搭建所有的计 算图之后,再把数据输入进去 PyTorch:动态图的搭建是根据 每一步的计算搭建的 创建图 运行每次迭代0 码力 | 27 页 | 1.54 MB | 1 年前3
共 152 条
- 1
- 2
- 3
- 4
- 5
- 6
- 16













