consul 集群搭建
agent -data-dir /tmp/node0 -node=node0 -bind=192.168.64.59 -datacenter=dc1 -ui - lient=192.168.64.59 -server -bootstrap-expect 1 consul agent -data-dir /tmp/node1 -node=node1 -bind=192.168.64.94 -datacenter=dc1 64.59 -datacenter=dc1 -ui -server bootstrap-expect 1 consul agent -server -bootstrap-expect 3 -data-dir /tmp/consul -node 192.168.64.59-datacen er dc1 –ui consulagent -server -bootstrap-expect 3 -data-dir -data-dir /tmp/consul -node 192.168.64.94-datacent r dc1 –ui consulagent -server -bootstrap-expect 3 -data-dir /tmp/consul -node 192.168.64.249-datacen er dc1 -ui consul join 192.168.64.59 consul join 1920 码力 | 2 页 | 124.59 KB | 1 年前3云原生安全威胁分析与能力建设白皮书(来源:中国联通研究院)
云原生安全相关标准 序号 标准名称 简要内容 1 云原生安全配 置基线规范 由云安全产业联盟提出并归口,规定了云原生安全配置基线扫描应具备的基 础规范要求。云原生安全配置基线扫描规范要求包括 API Server 安全配置 要求、控制管理器安全配置要求、调度器安全配置要求、工作负载安全配置 要求、 etcd 安全配置要求、 kube-proxy 安全配置要求、 kubelet 安全配 置要求、 CNI 云原生安全威胁分析与能力建设白皮书 27 图 8 针对 k8s 进行攻击的路径分析 2.4.1k8s 组件攻击 攻击点 1 至攻击点 4,罗列了 k8s 各组件的不安全配置可能带来的安全风 险,即 API Server 未授权访问、etcd 未授权访问、kubelet 未授权访问、 kube-proxy 不安全配置。除此之外,还有很多组件都存在着类似的安全问题, 比如 dashboard、Docker 等组件也存在未授权访问的隐患,这些都是 可能存在的横向攻击内容包括攻击 API Server 以及攻击其他服务,如攻击 路径 7、8 所示。 攻 击 API Server : k8s 集 群 的 pod 和 API Server 通 信 是 通 过 ServiceAccount 的 token 验证身份的,这里存在一个攻击点就是如果 pod 的 ServiceAccount 权限过大,便可以以高权限和 API Server 通信,则有可 能查看0 码力 | 72 页 | 2.44 MB | 1 年前324-云原生中间件之道-高磊
Application Application Read Read Write DB Server User Space File system Data Router&Cache DB Server User Space File system Data Router&Cache DB Server User Space File system Data Router&Cache 中间件和服务以及其他组件一道组成一个完整应用,就像前面说的电商场景,如果服务云原生化了,中间件就成了 短板,这就是云原生领域一个著名的推断:云原生化能力是否落地往往主要影响要素在最短板的那一个-水桶效应。 MCP Server NameServer Citadel Mixer Pliot Galley Injector MQ Broker Envoy MQ Broker Envoy MQ Broker Envoy Pod的形式补充Yarn集群的算力,算是借鉴了混合云的一些思路。此时我们避开了复杂的 ResourceManager改造问题,只需要考虑直接制作Yarn-NodeManager镜像。 API Server 迁移风险高, 所以不迁移 主要矛盾:算力 • 在弹性扩缩容和资源申请方面,借助基于Kubernetes的serveless服务,做到资源按需创建、按需使用和付费;而资 源的调度方式,则依0 码力 | 22 页 | 4.39 MB | 5 月前3Volcano加速金融行业大数据分析平台云原生化改造的应用实践
Karmada Controllers K8s API Server Queue Controller Job Controller VG Controller VG API Server Cluster A K8s API Server Cluster B Agent Other Clusters Karmada API Server Volcano Global VG Admission0 码力 | 18 页 | 1.82 MB | 1 年前336-云原生监控体系建设-秦晓辉
?不是随便搜索几个yaml文件能搞定的 平台侧自身复杂度变高, 监控难度加大 从 Kubernetes 架构来 看要监控的组件 Kubernetes架构 l 服务端组件,控制面:API Server、Scheduler、 Controller-Manager、ETCD l 工作负载节点,最核心就是监控Pod容器和节点本 身,也要关注 kubelet 和 kube-proxy l 业务程序,即部署在容器中的业务程序的监控,这 prometheus 插件即可,大盘可以参考 k8s/etcd-dash.json • etcd_server_has_leader etcd 是否有 leader • etcd_server_leader_changes_seen_total 偶尔切主问题不大,频繁切主就要关注了 • etcd_server_proposals_failed_total 提案失败次数 • etcd_disk_back0 码力 | 32 页 | 3.27 MB | 5 月前3consul 命令行
提供此值,或者该值必须与群 中的其他服务器一致。提供后,Consul将等待指定数量的服务器可用,然后引导群集。这允许自动选 初始领导者。这不能与传统-bootstrap标志一起使用。此标志需要-server模式。 ● -bind:应绑定到内部群集通信的地址。这是群集中所有其他节点都应该可以访问的IP地址。默认 况下,这是“0.0.0.0”,这意味着Consul将绑定到本地计算机上的所有地址,并将 1.2.2及更 版本中可用。 ● -serf-wan-port:收听的Serf WAN端口。这将覆盖默认的Serf WAN端口8302.这在Consul 1.2.2 更高版本中可用。 ● -server:此标志用于控制代理是处于服务器模式还是客户端模式。提供时,代理将充当Consul服 器。每个Consul集群必须至少有一个服务器,理想情况下每个数据中心不得超过5个。所有服务器都 与Raft一 与其他数据中心中的服务器节点一起参与 AN八卦池。服务器充当其他数据中心的网关,并根据需要转发流量。 ● -server-port:要侦听的服务器RPC端口。这将覆盖默认服务器RPC端口8300.这在Consul 1.2.2及 高版本中可用。 ● -non-voting-server:(仅限企业)此标志用于使服务器不参与Raft仲裁,并使其仅接收数据复制 。在需要大量读取服务器的情况下,这可用于向集群添加读取可伸缩性。0 码力 | 5 页 | 346.62 KB | 1 年前3云原生图数据库解谜、容器化实践与 Serverless 应用实操
in/config/bundle.yaml kubectl create secret docker�registry push�secret \ ��docker�server=$REGISTRY_SERVER \ ��docker�username=$REGISTRY_USER \ ��docker�password=$REGISTRY_PASSWORD kubectl README.md ├── src │ ├── siwi # Siwi-API Backend │ │ ├── app # Web Server, take HTTP req > cal │ │ └── bot # Bot API │ │ ├── actions # Take Intent0 码力 | 47 页 | 29.72 MB | 1 年前3基于Consul的多Beats接入管控与多ES搜索编排
Filebeat异常退出如 何处理? 如何做上报性能调优? 6 系统架构 云Kafka Api-server2 Consul 云ES Agent-1 Agent-N Agent-1 Agent-N 数据流 配置监听 Agent注册 配置下发 Web-UI Api-server1 HostGroup HostGroup MasterCluster Opsd Monitord0 码力 | 23 页 | 6.65 MB | 1 年前3构建统一的云原生应用 可观测性数据平台
看云网更清晰 Simplify the growing complexity. 生产环境数据:Server端资源消耗<1% • 监控600+个K8s Node(~8000个POD),共600*16vCPU • 每秒写入1M Row(50MB字节),每行100~150 Column • Server端共6*16vCPU,总计CPU消耗<150%,总计Load<60 1. 可观测性数据平台的挑战0 码力 | 35 页 | 6.75 MB | 1 年前322-云原生的缘起、云原生底座、PaaS 以及 Service Mesh 等之道-高磊
场选择。通用性才能做到普适 定制化能力,才能成为云原生 的操作系统。 标准化能力-分布式操作系统核心-容器服务-Operator API Server Kubectl Controller Pod,Deploymen t,etc. API Server Kubectl Custom Controller Custom Resource(CR) Operator机制 Pod,Deployment0 码力 | 42 页 | 11.17 MB | 5 月前3
共 16 条
- 1
- 2