如何解决与 Kubernetes 一起运行的服务的 API 网关?
我们的所有服务都在 Kubernetes 上运行。我们想知道部署我们自己的 API 网关的最佳实践是什么,我们想到了 2 个解决方案:
-
在 Kubernetes 集群之外部署 API 网关,即使用 Kong。这意味着集群的入口将连接到外部网关。网关是虚拟机或物理机,你可以通过复制多个网关实例来扩展
-
从 Kubernetes 内部部署网关(然后可能连接到外部 L4 负载均衡器),即大使。但是,使用这种方法,每个集群只能有 1 个网关。防止容错的唯一方法是实际复制整个 K8s 集群
什么是典型的设置,什么是更好的?
解决方法
Kubernetes 中 api 网关的典型设置是使用负载均衡器服务,如果您使用的云提供商支持动态提供负载均衡器(所有主要的云供应商,如 gcp、aws 或 azure 都支持它),或者使用入口控制器更常见。
这两个选项都可以水平扩展,因此您具有容错能力,实际上已经有使用 kong 的入口控制器解决方案
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。