云原生安全威胁分析与能力建设白皮书(来源:中国联通研究院)DevOps、持续交付、微服务和容器技术为代表,符合云 原生架构的应用程序应该:采用开源堆栈(k8s+Docker)进行容器化,基于微 服务架构提高灵活性和可维护性,借助敏捷方法、DevOps 支持持续迭代和运维 自动化,利用云平台设施实现弹性伸缩、动态调度、优化资源利用率。 云原生安全威胁分析与能力建设白皮书 12 1.1.2 云原生安全 云原生安全作为云原生的伴生技术,旨在解决云原生技术面临的安全问题, ,需要采用分布式安全策略 和技术,如服务间的身份验证和授权、服务网格的加密通信、微服务的监测和异 常检测等。 管理模式的变化 云原生安全威胁分析与能力建设白皮书 15 云原生应用的快速迭代和部署频率也对安全治理模式提出了新的要求。传统 的安全治理模式通常是基于静态的规则和策略,针对云原生 DevOps 安全治理 需要采用持续安全集成和交付的实践,结合自动化的安全测试、漏洞扫描和合规 年上半年云安全态势报告》显示[7],在云环境中容器 资产占比达到 45.06%,攻击者通过攻击容器,就可以进一步获取宿主机系统权 限,威胁宿主机上的其他容器和内网安全。另外,随着各个企业云上业务的快速 发展,越来越多的应用开发深度依赖 API 之间的相互调用。根据 2023 上半年的 攻击数据显示,攻击者利用 API Key、敏感文件执行、敏感信息读取等手段发起 的攻击次数呈明显上升趋势,占总攻击事件的0 码力 | 72 页 | 2.44 MB | 1 年前3
中国移动磐舟DevSecOps平台云原生安全实践磐舟DevSecOps平台定位 基于云原生打造一站式DevSecOps平台,致力于解决企业在数字化转型中的研发效能提升问题,提供从 “需求-开发-测试-发布-运维-运营”端到端的协同服务和研发工具支撑。助力企业产品快速创新迭代,进行 数智化化转型、实现业务价值。 • 端到端自动化交付流水线 • 开发过程自主可控 • 一键发布上磐基,实现“乘舟上云,稳如磐基” • 沉淀IT软件资产,核心代码掌控 • 提升开发交付效率 分类,并添加至安全需求清单列表 ②根据安全需求清单选择安全设计要求,整理为安全设 计清单 ③编码阶段,研发人员基于安全设计文档,落实与本次 需求相关的安全设计要求 安全开发-软件成分分析SCA 开源软件帮助企业快速提升信息化水平,也引入新风险。开源技术应用、国际形势复杂、软件供应链的多样化, 供应链各个环节的攻击急剧上升,已然成为企业主要的安全威胁。 缺点 低误报率 高检出率 集成灵活 只能检测已知 性的同时带来的安全问题 l 能力输出:针对自有安全能力可以 增值输出政企客户 安全管控-镜像扫描 在自动、增量、批量进行镜像上线前的扫描后,生产节点拉取安全镜像,运行后提供服务,但漏洞问题日新月异,有很多迭代 速度慢的业务应用随着时间的推移,一些新的漏洞也需及时发现整改。镜像扫描工具会自动、周期性对已上线业务应用的镜像进行 多维度深度扫描,及时发现新出现的安全问题,及时修正。 业务 容器 业务 容器0 码力 | 22 页 | 5.47 MB | 1 年前3
云原生微服务最佳实践效率(人越来越贵,算力越来越便宜) • 研发超过 10 人在 1 个代码冲突多 • 系统超过 5 个测试&上线协同代价大 • 数字化升级需要快速迭代 性能 • 单机成为性能瓶颈 可用性 • 单机成为可用性瓶颈 挑战 • 技术复杂度上升 • 运维成本上升 • 可定位性变差 • 快速迭代难以控制风险 阿里微服务解法和优势 MSE微服务引擎 Nacos Ingress(Envoy) 云原⽣⽹关 Sentinel0 码力 | 20 页 | 6.76 MB | 1 年前3
25-云原生应用可观测性实践-向阳80%看代码 20% 看流量 20% 看代码 80%看流量 应用连接方式的变化 应用监控的变化 传统的方法: 开发人员埋点, 标准SDK/JavaAgent, 流量分光镜像。 云原生下的难题: 微服务迭代快, 侵入式监控效率低; 云网络虚拟化, 东西向流量监控难。 挑战/必要性:网络的动态性和复杂性,不监控流量谈何应用可观测 机遇/有效性:云网络连接API/函数,监控流量可零侵入实现应用可观测 è rights reserved. 效果1:服务访问关系全自动展现 DeepFlow:零侵入、零重启,全景访问关系+全息知识 图谱,无论业务如何迭代,自动呈现实际应用架构。 开发语言、开发框架百花齐放,现有APM高度依赖代 码插桩的监控方式能满足业务高速迭代的需求吗? simplify the growing complexity © 2021, YUNSHAN Networks Technology 虚拟机Node vSwitch DeepFlow 采集器进程 业务 POD 业务 POD 采集 POD br 业务 POD 网关 1 2 3 5 6 7 4 容器-虚拟机-NFV网关 全栈链路追踪能力 快速故障定位,缩短MTTR 效果2:服务间调用全栈链路追踪 1 2 3 5 6 7 服务间通过sidecar、 iptables、linux bridge、 NFV网关等相连, 传统APM能追踪得上吗?0 码力 | 39 页 | 8.44 MB | 6 月前3
24-云原生中间件之道-高磊有大量的重复组件或者三方库的依赖,导致安全漏洞被传递或者扩散, SCA就是解决此类问题的办法,通过自动化分析组件版本并与漏洞库相 比较,快速发现问题组件,借助积累的供应链资产,可以在快速定位的 同时,推动业务快速修复。 安全左移的一种,在上线前发现依赖组件的安全 问题,快速借助供应链资产库,帮助业务修复问 题。 需要进行大量的安全特征以及资产库的建设或者 三方集成。(涉及业务能力) RASP(运行时安全应 接给出对云原生存储的要求 1. 敏捷化需求 • 云原生应用场景对服务的敏捷度、灵活性要求非常高,很多场景期望容器的快速启动、灵活的调度,这样即需要存储卷也能敏捷的根据 Pod 的变化而调整。 需求表现在: • 云盘挂载、卸载效率提高:可以灵活的将块设备在不同节点进行快速的挂载切换; • 存储设备问题自愈能力增强:提供存储服务的问题自动修复能力,减少人为干预; • 提供更加灵活的卷大小配置能力。 诉求,把原先的大数据平台JStorm都给舍弃 掉,全面奔向MaxCompute云原生体系) 高级能力-云原生大数据|AI-业务赋能的基石-2-架构改造上的问题和困难 • 弹性扩缩容能力无法满足快速增长的业务需求:随着业务的发展,流量和数据量突增,尤其对于实时计算,需要资源 能够及时的扩容,以满足业务需求。尽管一些大数据管控平台尝试实现自动的扩缩容(如通过集群负载情况,进行扩 容),然而,在传0 码力 | 22 页 | 4.39 MB | 6 月前3
22-云原生的缘起、云原生底座、PaaS 以及 Service Mesh 等之道-高磊…… 测试环境 生产环境 复杂的应用软件架构,在开发、测试、运维 团队之间建成了认知的“墙”,团队间配合效 率低,故障排查慢,阻碍了软件价值的流动 无法满足用户对于业务快速研发、 稳定交付的要求 场景 1 如果生产中一台Web应用服务器故障,恢复这台服务器需要 做哪些事情? 场景 2 如果应用负载升高/降低,如何及时、按需扩展/收缩所 用资源? 场景 3 用 大型 单体 应用 VM/服务器 VM/服务 器 VM/服务 器 VM/服务 器 目 标 支持微服务级别的细粒度资源隔离 支持快速扩缩容 支持热升级,服务更新不影响业务可用性 支持服务的快速地部署、扩展、故障转移 支持更细致、自动化的运维,快速恢复 …… 过去 现在 未来 云原生的业务承载平台? 什么是云原生->为云而生 • 落地的核心问题:业务微服务的划分和设计(DDD 化的技术底座=云原生平台;其中变化是以研发循环形式不断出现和累加的,如果不进行治理,那 么这些变化就会积累,稳定性的破坏是熵增的,而云原生基础设施就要做到对变化产生的不稳定因 素进行熵减处理 • 向上站在企业立场上:是要解决微服务体系快速落地的问题,低成本支撑企业创新以及数字疆域规 模扩张 1 技术架构变化:因商业或者演化而 变带来不稳定因素 2 制品变化:代码因商业而变带来新 的功能缺陷 3 配置变化:因环境而变带来的不稳 定性因素0 码力 | 42 页 | 11.17 MB | 6 月前3
23-云原生观察性、自动化交付和 IaC 等之道-高磊通过TraceId来 标识记录并还 原发生一次分 布式调用的完 整过程和细节 Logging 通过日志记录 执行过程、代 码调试、错误 异常微观信息 数据之间存在很多关联,通过 关联性数据分析可获得故障的 快速界定与定位,辅助人的决 策就会更加精确 根据运维场景和关注点的不同,以不同图表或者曲 线图来表示整体分布式应用的各维度情况,使得开 发人员可以清晰的观测到整体分布式应用的详细运 行情况,为高精度运维提供可视化支撑 并通过Docker+SDN+云原生存储 +K8S+OAM彻底隔离了不同环境 底层的细节和差异,可以整体化 交付到这些组织所在的数据中心 里去 标准化能力-微服务PAAS-OAM交付流程模式-场景流程 • 由于互联网迭代相对于其 他企业业务更新迭代更加 频繁,引发的变更循环会 积累更多的破坏稳定性的 因素。 • 分成开发、测试(或者还 需要增加预发)、生产等 环境,要将一个变更后的 制品通过些环境的层层验 证,才能进行交付 • 由于比如电商更多关心的0 码力 | 24 页 | 5.96 MB | 6 月前3
开源多集群应用治理项目Clusternet 在多点生活的云原生实践个人简介 • 开源项目 MOSN 核心 Committer • 主要负责容器服务整体架构的设计与开发 • 主导 ServiceMesh 落地相关工作 目录 多集群管理现状 Operator 迭代 反思&重构 整体架构 • 多单元 • 多集群 • 多分组 • 多种公有云(腾讯云、微软 云等) 核心组件-Symphony CI/CD 业务方使用 对外提供统一API 运行情况展示 Operator API • 对使用方屏蔽多单元、多集群的存在 • 提供简单的、无需运维介入的日常维护功能 • 结合监控,可以查看每个实例的运行情况 • 支持离线日志查看,减少对容器的理解 迭代历程 2017~2019 • 基于Helm包管理 • K8S java 客户端 • CI/CD流程耦合 2019~2020 • 使用 Go 重构 CD 流程 • 多云环境适配 • Service oyment_types.go 流程 迭代1-Service 需求: • Service 类型是 LB 的时候,需要申请的是内网 IP,而不是公网 IP 迭代2-ServiceMesh 需求: • 使用 OpenKruise 的 SidecarSet 注入/更新 Sidecar(MOSN) • Controller 兼容自动注入逻辑 迭代3-Multi Runtime 需求:0 码力 | 22 页 | 17.18 MB | 1 年前3
16-Nocalhost重新定义云原生开发环境-王炜Nocalhost - 重新定义云原⽣开发环境.md 2021/1/20 1 / 7 Nocalhost - 重新定义云原⽣开发环境 前⾔ 随着业务的快速发展,技术部⻔的组织架构在横向及纵向不断扩⼤和调整,与此同时,企业的⽣产资料:应 ⽤系统,也变得越来越庞⼤。为了让应⽤系统适配企业组织架构的调整,梳理组织架构对于应⽤权责的边 界,⼤部分组织会选择使⽤“微服务”架构来对应⽤系统进⾏横向拆分,使得应⽤系统的维护边界适配组织架 。最终,“微服务”之间的调⽤关系就像跨部⻔协作,也变得 越来越复杂,问题在想要新增需求时尤为突出。 “微服务”带来便利的同时,对开发⼈员⽽⾔,还带来了额外的挑战:如何快速启动完整的开发环境?开发的 需求依赖于其他同事怎么联调?如何快速调试这些微服务? ⽽对于管理⼈员来说,也同样带来了⼀系列的挑战:如何管理开发⼈员的开发环境?如何让新⼊职的同事快 速进⾏开发? 试想⼀下,要开发由 200 个“微服务”组成的云原⽣应⽤,会遇到哪些困难呢? 服务应⽤的部署和运维环节。 但我们忽略了⼀个关键节点:开发阶段 微服务应⽤使⽤ Kubernetes ⼯作负载封装后,解决了开发过程应⽤的快速启动问题,开发⼈员只需要在本地 安装单节点的 Kubernetes 集群,例如 Minikube、Kind 等即可快速启动微服务应⽤。 但对于开发⼈员来说,原来单体应⽤的开发体验变得不复存在,由于应⽤很难在 Docker 容器之外运⾏,所以 每次代码修改,都需要经历以下步骤:0 码力 | 7 页 | 7.20 MB | 6 月前3
基于Consul的多Beats接入管控与多ES搜索编排如何保证日志实时上报 如何保障日志采集不影响业务 如何做配置标准化 如何帮助业务快速排障 如何提供方便便捷的性能分析 调优能力 … 4 多Beats/Logstash接入 管控 提供多产品接入管理,多beats标准 化、界面化、自动化的日志接入方案 5 案例:1000+业务10000+台 主机如何快速实现日志接入? 业务规模 1000+业务、 10000+业务主机、每天百T日志增量 配置一致性离线分析 • 多beats同时管控 11 当前收益 快 稳 准 • 快速接入(5min) • 配置UI化标准化 • 配置变更实时感知 • 部署全自动化 • 多Beats支持 • Beats运行时cpu/mem可控 • Agent监控视图 • 离线/容量/延时监控 • 分布式集群管理 • 异常快速定位 • 关联公司CMDB • 资源权限管理 • 配置灰度控制发布 • Beats Worker 并发调大 提高写入并发 单次bulk size 调大 Es性能分析 对比 自建 日志平台接入 上报延时分析 无法实时感知日志积压情况 日志延时dashboard快速定位 Filebeat性能分析 依赖白金版monitor机制 不依赖es版本、结合cpu/mem限额配置与实时 指标采集分析 Filebeat性能调优 需要修改配置文件不断尝试 界面提交核心参数并结合延时图对比分析0 码力 | 23 页 | 6.65 MB | 1 年前3
共 20 条
- 1
- 2













