API7 ⽹关技术⽩⽪书修改⽹关配置、增加或修改插件等,⽆需重启⽹关服务即可实时⽣效;⽀持动态加载SSL证书; 扩展能⼒强 7. 借助灵活的插件机制,可针对内部业务完成功能定制;⽀持⾃定义负载均衡算法与路由算法,不受限 于API⽹关实现;通过运⾏时动态执⾏⽤⼾⾃定义函数⽅式来实现Serverless,使⽹关边缘节点更加 灵活; 治理能⼒丰富 8. 如故障隔离、熔断降级、限流限速等;在启⽤主动健康检查后,⽹关将⽀持智能跟踪不健康上游节点 更新 所有变更都是热更新,实时⽣效 ✔ ✖ ✖ ✔ ✖ 插件热更新 ✔ ✖ ✔ ✖ ✖ 程序⾃⾝热更新 ✔ ✔ ✖ ✔ ✖ 运维 CLI 命令⾏⼯具 ✔ ✔ ✖ ✔ ✖ Admin API 使⽤RESTAPI来控制,⽅便集成 ✔ ✔ ✖ ✖ ✖ 单机模式 ⽤yaml⽂件来定义所有规则 回滚 ⽀持操作的⽆限回滚 ✔ ✖ ✖ ✖ ✖ Helm charts 更⽅便k8s下的运维 ✔ ✖ ✖ ✔ ✖ 全局插件 简化操作 ✔ ✔ ✔ ✖ ✔ 健康状态 数据平⾯节点的版本和运⾏监控 ✔ ✔ ✔ ✖ ✔ 配置中⼼状态和版本信息 ✔ ✔ ✖ ✖ ✖ 节点负载状态监控0 码力 | 19 页 | 1.12 MB | 1 年前3
Apache APISIX 在安信 PaaS 平台的应用service3/* DB 中间件 发布 环境选择 (sit、uat、prd) APISIX 初始化 一些思考 03 落地实践、用户反馈 独立集群:提供镜像,用户自主管理;学习成本高;运维成本高 共享集群:降低运维成本;故障风险扩大;用户信息安全 短小、精悍;匹配标准场景 非标准场景适配 worker_processes ingress做网关入口可能产生的问题 1、独立集群 or 共享集群0 码力 | 14 页 | 621.17 KB | 1 年前3
03-基于Apache APISIX的全流量API网关-温铭Apache APISIX 设计思路 • API 网关的数据面和控制面分离 • 通过插件机制来方便二次开发和运维 • 高可用,没有单点故障 • 安全和稳定第一:基于 Nginx 实现;mTLS 认证;敏感信息加密加盐(salt)保存 • 高性能:单核心 QPS 1.5 万,延迟低于 0.7 毫秒 • 运维友好:Prometheus, SkyWalking,流量复制,故障注入等 技术架构 Apache0 码力 | 11 页 | 6.56 MB | 6 月前3
有了 NGINX 和 Kong,为什么还需要 Apache APISIX-王院生Sidecar:APISIX Mesh 云 原 ⽣ 社 区 M e e t u p 第 四 期 · ⼴ 州 站 APISIX:全流量数据⾯ • 统⼀数据⾯基础设施 • 降低开发成本 • 运维成本 • 监控、告警等周边设施⽆缝共 享 云 原 ⽣ 社 区 M e e t u p 第 四 期 · ⼴ 州 站 Q&A yuansheng@api7.ai 王院⽣0 码力 | 34 页 | 25.78 MB | 6 月前3
金卫-Apache APISIX 借助 Service Mesh 实现统一技术栈的全流量管理现状和痛点 理想的服务网格应该是什么样 APISIX 在 Service Mesh 上的尝试 未来的展望 Service Mesh 现状和痛点 为什么需要服务网格 将通用能力下沉 应用专注于业务逻辑 注册发现 流量管理 可观测性 安全防护 服务网格的痛点 方案众多,各有缺陷 与基础设施整合成本高 性能损耗 资源的额外消耗 扩展难度高 易于上手 • 权限安全管控 • 配置方式被大众接受 理想的服务网格 数据面 • 支持多种协议,甚至是自定义协议 • 性能损耗低 • 资源占用在可控范围 • 启动速度快 • 方便定位问题 • 扩展能力强 APISIX 在 Service Mesh 上的尝试 控制面的抉择 控制面 - 拥抱 Istio Istio 是当前最为流行的服务网格方案 社区活跃 几乎所有主流云厂商都对 istio 资源消耗可控 APISIX原生支持 增加了xds discovery 配合CRD进行扩展 Apache APISIX 高性能云原生网关 数据面和控制面分离 强大的扩展能力 丰富的生态集成 Apache APISIX的应用案例 https://apisix.apache.org/zh/blog/tags/case-studies/ APISIX Service0 码力 | 34 页 | 3.50 MB | 6 月前3
APISEVEN 和Kong EE 的性能评测于Debian和RedHat的包管理器(Yum和 Apt-Get),在他们的仓库⾥有Kong,⽽且还有Docker和CloudFormation选项。 Kong可以作为⼀个单节点运⾏,也可以作为多节点集群。在集群中,负载均衡器(如开源的 NGINX)被⽤在边缘节点为客⼾端提供单个地址,并使⽤选定的策略(例如循环或加权)在Kong节 点之间分发请求。横向扩展Kong 进⾏测试,如图2所⽰。尽管在达到99%之前差异很⼩,但延迟的差异随后呈指数级增⻓。对⽐这张 图和后⾯20000rps时延迟的图(图3),你可以看到50%、90%、95%、99%、99.9%和99.99%的 延迟以及测试运⾏期间的最⼤延迟。在达到99.99%时,API7的延迟⽐KongEE低97%。 图3.API7与KongEE在20,000rps时的对⽐ 注:KongEE有1876个,或9.4%的⾮2xx或3xx响应(失败)。0 码力 | 14 页 | 1.11 MB | 1 年前3
共 6 条
- 1













