(四)基于Istio on Kubernetes 云原生应用的最佳实践 - Alibaba Cloud K8S Playground0 码力 | 6 页 | 1.33 MB | 1 年前3
22-云原生的缘起、云原生底座、PaaS 以及 Service Mesh 等之道-高磊以度量为基础,以NodeSelector算法来 决定在哪儿部署容器服务 • 运行时以期望与实际的差别进行动态调 整到期望的状态 标准化能力-分布式操作系统核心-容器服务-基本技术原理 事实标准的K8S容器服务设计 成应用与物理资源(IaaS,虚 拟机、物理,多云)的中间抽 象层,因为应用很复杂,很容 易陷入差异化定制市场,抽象 层的市场范围会更广,作为开 源平台,更容易成为通用性市 场选择。通用性才能做到普适 Kubectl Custom Controller Custom Resource(CR) Operator机制 Pod,Deployment, etc Spec (K8s Yaml) Custom Resource Spec (K8S yaml) 通过拓展实现自定义控制器来实现对非标准资源的纳 管,比如数据库的自动拓展能力或者自动化数据同步 能力等等。 标准化能力-分布式操作系统核心-容器服务-新发展 由于历史遗留或者软件形态所限制,不可能所有的软件都可以被微服务化或被容器化,那么现在阶段来看,整个 数字化转型的一些困难就是处于在技术上的碎片化,为云原生彻底发挥对极端变化的适应性价值还有很多障碍。 在统一的K8s管理面下, 通过一种代理容器(内置 了管理虚拟机的逻辑) 来启动虚拟化Pod, 此时可以同时在统一的 容器云平台下运行微服 务化容器化或者未容器 化的传统软件了; 另一个方向是,将底层计 算、存储和网络进行超融0 码力 | 42 页 | 11.17 MB | 6 月前3
云原生安全威胁分析与能力建设白皮书(来源:中国联通研究院)图 7 容器运行时安全风险......................................................................... 23 图 8 针对 k8s 进行攻击的路径分析......................................................... 27 图 9 针对微服务进行攻击的路径分析......... 图 13 容器逃逸结果展示...........................................................................40 图 14 k8s 权限提升攻击路径................................................................... 41 图 15 利用 CVE-2018-1002105 之一,云主机安全是云安全 的核心;在云原生阶段,容器和无服务器计算成为核心工作负载,容器安全、 Serverless 安全、DevSecOps 成为云安全的核心。自开源 Docker 容器和 k8s 编排引擎出现以来,云原生生态不断扩大。当前,云原生作为云计算深入发展的 产物,已经开始在 5G、人工智能、大数据等各个技术领域得到广泛应用。云原 生技术的广泛应用,带来了一系列云原生安全问题,因此,要保障云原生的安全,0 码力 | 72 页 | 2.44 MB | 1 年前3
02. Kubevela 以应用为中心的渐进式发布 - 孙健波云原生时代的应用与发布挑战 01 KubeVela 简介 02 KubeVela 中的渐进式发布实践 03 云原生时代,应用是怎 么样的? 以 K8s 资源组合为核心 kubernetes/StatefulSet Kubernetes/Deployment K8s 的原生资源组合 1. 复杂、难懂、门槛高 2. 能力局限,不同场景各不相同 3. 不统一,每一个模式需要重新编 写发布对接 K8s-sigs 黑盒,不明确内部有哪些 资源。 2. 无法使用/对接云资源。 3. 发布能力缺失,使用 helm upgrade 没有灰度 能力。 Helm Chart 基于 CRD 自定义实现 需要大量 K8s 经验才能开发 某游戏公司自定义workload Pinterest 构建一个渐进式发布能力需要解决哪些 问题? • 版本化 • 分批发布 • 滚动发布/原地发布 • 发布暂停 • 发布回滚 • 天,登顶趋势榜首 应用 平台团队 Canary Autoscale Route Web Service Database 能力模板(即:抽象) 业务用户 选择并初始化部署环境 部署环境模板 选择能力模板 填写模板参数 组装能力为“应用” RDS Route Web Service Database 生产集群 Pod Nginx Pod 测试集群 生产集群 https://myapp0 码力 | 26 页 | 9.20 MB | 1 年前3
09-harbor助你玩转云原生-邹佳排运行 • 所需镜像从Dockerhub 来拉取 2 Helm Chart • 通过Helm来安装 • 目标为K8s集群 • 仅聚焦Harbor组件安装 • goharbor/harbor-helm 3 K8s Operator • 通过K8s CRD实现编排 • 目标为K8s集群 • 专注于HA模式支持 • goharbor/harbor- operator (开发中) 4 资源隔离与多租户管理 构建高可用(HA)仓库服务 [2] 使用Helm Chart和外部高可用服务(数据库,缓存和存储)部署HA的仓库服务 构建高可用(HA)仓库服务 [3] Harbor Operator提供基于K8s集群的all-in-one HA解决方案(也支持使用外部共享服务) Kubernetes Cluster User Defined Namespace Operator Namespace(s) Minio Controller External Services K8s Resources K8s Resources K8s Resources K8s Resources K8s Resources Database Service Cache Service Storage Service 构建高可用(HA)仓库服务 [4] 多数据中心HA部署 与Harbor集成0 码力 | 32 页 | 17.15 MB | 6 月前3
构建统一的云原生应用 可观测性数据平台A的实例在一段时间内做了多少次GC? ① 看云网更清晰 Simplify the growing complexity. 数据打通并不简单 ② 应用、系统、网络的Metrics之间 例如:某个Service的Pod的QPS、IOPS、BPS分别是多少? 例如:Pod所在的KVM宿主机的CPU、内存指标? ② 看云网更清晰 Simplify the growing complexity. 数据打通并不简单 Ingress Deployment StatefulSet ReplicaSet POD DeepFlow的典型客户环境中,两个微服务通信涉及到的标签多达上百个 Namespace Service Service Deployment Pod Container Node Cluster Ingress Deployment Pod Container 服务 app version deployType=canary Version=1.4.0 group=iot owner=xiangyang cluster=devops deployId=287115 level=low layer=service taskEnv=prod 看云网更清晰 Simplify the growing complexity. AutoTagging:自动同步资源和服务属性 资源池 区域 可用区 云平台 租户0 码力 | 35 页 | 6.75 MB | 1 年前3
云原生图数据库解谜、容器化实践与 Serverless 应用实操云原⽣图数据库解谜、容器化实 践与 Serverless 应⽤实操 古思为 ⽅阗 Graph DB on K8s Demystified and its Serverless applicaiton in actions. DEVELOPER ADVOCATE @ MAINTAINER OF KCD China 2021 Nov. 6th @Shanghai 古思为 wey-gu OpenFunction 社区 Maintainer ⻘云科技研发⼯程师 Overview 了解 K8s 上的 Serverless 计算平台搭建实践:OpenFunction K8s 上的图数据库基于 KubeBuilder 的 Operator 实现,解谜图数据库的知识与应⽤ 上⼿ K8s 上的云原⽣图数据库、从零到⼀构建 Serverless 架构的智能问答助⼿ siwei.io/talks/2021-KCD err) } } Function Build ⽤ Tekton 管理镜像制作流⽔线 1. 获取源代码 2. 制作镜像 3. 上传镜像 如何管理 Build pipeline? K8s 弃⽤ Docker 作为 Container Runtime 不能再以 Docker in docker 的⽅式以 Docker build 构建镜像 还有什么选择? Function Build0 码力 | 47 页 | 29.72 MB | 1 年前3
25-云原生应用可观测性实践-向阳== 监控入口 Datadog Universal Service Monitoring 要点: 1、Alerts and SLOs for every service 2、No code changes required 3、Faster troubleshooting with a unified platform 4、No service left behind 50亿$ 200亿$ 500亿$ Technology Co., Ltd. All rights reserved. 业界动向 —— 云厂商监控 阿里云ARMS 问题:依赖于eBPF,仅支持Kernel 4.15+、仅阿里云(K8s需托管) simplify the growing complexity © 2021, YUNSHAN Networks Technology Co., Ltd. All rights reserved reserved. 实战1:采集器怎么运行 容器 - K8s Node (VM/BM) 业务POD 业务POD 业务POD CNI vSwitch / Bridge DeepFlow 采集POD (HostNet) DaemonSet • 零干扰:无需对vSwitch和Node做任何配置、不监听任何端口 • 全自动:DaemonSet POD部署运行,随K8s自动扩展 • 零侵入:不侵入业务POD,可采集所有业务POD及本Node流量0 码力 | 39 页 | 8.44 MB | 6 月前3
36-云原生监控体系建设-秦晓辉作为标签带上去,设置 config.toml 中的 hostname=“$ip” 即可 完整配置可以参考: https://github.com/flashcatcloud/categraf/blo b/main/k8s/daemonset.yaml Kubernetes Node - 容器负载监控 关键指标 CPU使用率,分子是每秒内容器用了多少CPU 时间,分母是每秒内被限制使用多少CPU时间 sum( i 这些黄金指 标 • apiserver 也会缓存很多数据到内存里,所以进程占用的 内存,所在机器的内存使用率都应该要关注 • 采集方式可以参考 categraf 仓库的 k8s/deployment.yaml,大盘可以参考 k8s/apiserver- dash.json • apiserver_request_total 请求量的指标,可以统计每秒请求数、成功率 • apiserver_requ ,比如任 务数量,队列深度 • controller-manager出问题的概率相对较小,进程层面没 问题大概率就没问题 • 采集方式可以参考 categraf 仓库的 k8s/deployment.yaml,大盘可以参考 k8s/cm- dash.json • rest_client_request_duration_seconds 请求 apiserver 的耗时分布,histogram类型,按0 码力 | 32 页 | 3.27 MB | 6 月前3
Taming Istio
Configuration with Helmservices with Helm! values .yaml go- template > helm template my-service | kubectl apply -f - k8s yaml Istio yaml k8s yaml Istio yaml k8s yaml Istio yaml Sprig functions Native functions Values Chart #IstioCon Demo - Bookinfo What did we see? ● Single entry point for each service’s configuration ● Install each service with a single command ● Single source of truth for auth and egress policy ● with how we think about Istio #IstioCon Demo - Bookinfo What didn’t we see? ● Deployment ● Service ● HorizontalPodAutoscaler ● PodDisruptionBudget ● ConfigMap ● ServiceAccount ● VirtualService0 码力 | 19 页 | 867.72 KB | 1 年前3
共 28 条
- 1
- 2
- 3













