Ingress-Nginx工作原理和实践

服务器
Nginx Ingress 负责暴露服务(nginx前端静态资源服务), 根据十二要素应用的原 则,将后端 api 作为 nginx 服务的附加动态资源。

[[388304]]

本文转载自微信公众号「全栈码农画像」,作者小码甲。转载本文请联系全栈码农画像公众号。

本文记录/分享 目前项目的 K8s 部署结构和请求追踪改造方案

 

这个图算是一个通用的前后端分离的 k8s 部署结构:

Nginx Ingress 负责暴露服务(nginx前端静态资源服务), 根据十二要素应用的原 则,将后端 api 作为 nginx 服务的附加动态资源。

Ingress vs Ingress-nginx

Ingress 是一种向 k8s 集群外部的客户端公开服务的方法, Ingress 在网络协议栈的应用层工作,

根据请求的主机名 host 和路径 path 决定请求转发到的服务。

 

在应用Ingress 对象提供的功能之前,必须强调集群中存在Ingress Controller, Ingress资源才能正常工作。

我这里web项目使用的是常见的Ingress-nginx (官方还有其他用途的 Ingress),Ingress-nginx 是使用nginx 作为反向代理和负载均衡器的 K8s Ingress Controller, 作为Pod运行在kube-system 命名空间。

了解 Ingress 工作原理,有利于我们与运维人员打交道。 

下面通过 Ingress-nginx 暴露 Kibana 服务:

  1. --- 
  2. apiVersion: networking.k8s.io/v1beta1 
  3. kind: Ingress 
  4. metadata: 
  5.   name: kibana 
  6.   labels: 
  7.     app: kibana 
  8.   annotations: 
  9.     kubernetes.io/ingress.class: "nginx" 
  10.     nginx.ingress.kubernetes.io/proxy-connect-timeout: "30" 
  11.     nginx.ingress.kubernetes.io/proxy-read-timeout: "1800" 
  12.     nginx.ingress.kubernetes.io/proxy-send-timeout: "1800" 
  13.     nginx.ingress.kubernetes.io/proxy-body-size"8m" 
  14.     nginx.ingress.kubernetes.io/ssl-redirect: "true" 
  15. spec: 
  16.   tls: 
  17.     - hosts: 
  18.       - 'https://logging.internal.gridsum.com/' 
  19.       secretName: tls-cert 
  20.   rules: 
  21.     - host: 'https://logging.internal.gridsum.com' 
  22.       http: 
  23.         paths: 
  24.           - path: / 
  25.             backend: 
  26.               serviceName: kibana 
  27.               servicePort: 5601 

☹️ Ingress-nginx 中最让我困惑的是它的Paths分流与rewrite-target注解。

  • Paths 分流 一般用于 根据特定的 Path,将请求转发到特定的后端服务 Pod,后端服务 Pod 能接收到 Path 这个信息。一般后端服务是作为 api。
  • rewrite-target 将请求重定向到后端服务, 那有什么用处呢?

答:以上面暴露的 kibana 为例, 我们已经可以在https://logging.internal.gridsum.com/ 访问完整的 Kibana, 如果我想利用这个域名暴露 ElasticSearch 站点,怎么操作?这时就可以利用rewrite-target,

  1. --- 
  2. apiVersion: networking.k8s.io/v1beta1 
  3. kind: Ingress 
  4. metadata: 
  5.   name: elasticsearch 
  6.   labels: 
  7.     app: kibana 
  8.   annotations: 
  9.     kubernetes.io/ingress.class: "nginx" 
  10.     nginx.ingress.kubernetes.io/proxy-connect-timeout: "30" 
  11.     nginx.ingress.kubernetes.io/proxy-read-timeout: "1800" 
  12.     nginx.ingress.kubernetes.io/proxy-send-timeout: "1800" 
  13.     nginx.ingress.kubernetes.io/proxy-body-size"8m" 
  14.     nginx.ingress.kubernetes.io/ssl-redirect: "true" 
  15.     nginx.ingress.kubernetes.io/rewrite-target: "/$2" 
  16. spec: 
  17.   tls: 
  18.     - hosts: 
  19.       - 'logging.internal.gridsum.com' 
  20.       secretName: tls-cert 
  21.   rules: 
  22.     - host: 'logging.internal.gridsum.com' 
  23.       http: 
  24.         paths: 
  25.           - path: /es(/|$)(.*) 
  26.             backend: 
  27.               serviceName: elasticsearch 
  28.               servicePort: 9200 

在此 Ingress 定义中,由(.*)捕获的所有字符都将分配给占位符$2,然后将其用作重写目标注解中的参数。这样的话:https://logging.internal.gridsum.com/es 将会重定向到后端 elasticsearch 站点,并且忽略了 es 这个 path

 

Ingress-nginx 到 webapp 的日志追踪

熟悉我的朋友知道, 我写了《一套标准的ASP.NET Core容器化应用日志收集分析方案》,这里面主要是 BackEnd App 的日志,从我上面的结构图看,

Ingress-nginx----> Nginx FrontEnd App--->BackEnd App 需要一个串联的追踪 Id, 便于观察运维网络和业务应用。

幸好 Ingress-nginx, Nginx 强大的配置能力帮助我们做了很多事情:

  • 客户端请求到达 Ingress-Nginx Controllerr,Ingress-Nginx Controller 会自动添加一个X-Request-ID的请求 Header (随机值)---- 这个配置是默认的
  • 请求达到 Nginx FrontEnd App, Nginx 有默认配置proxy_pass_request_headers on;, 自动将请求头都传递到上游的 Backend App

这样跨越整个结构图的 request_id 思路已经清楚了,最后一步只需要我们在 Backend App 中提取请求中携带的X-Request-ID, 并作为日志的关键输出字段。

☺️ 这就涉及到怎么自定义日志的LayoutRender。

下面为Asp.NETCore NLog 自定义名为x_request_id的 Render,该 Render 从请求的 X-Request-ID 标头中提取值。

① 定义 NLog Render

  1. /// <summary> 
  2.     /// Represent a unique identifier to represent a request from the request HTTP header X-Request-Id. 
  3.     /// </summary> 
  4.     [LayoutRenderer("x_request_id")] 
  5.     public class XRequestIdLayoutRender : HttpContextLayoutRendererBase 
  6.     { 
  7.         protected override void Append(StringBuilder builder, LogEventInfo logEvent) 
  8.         { 
  9.             var identityName = HttpContextAccessor.HttpContext?.Request?.Headers?["X-Request-Id"].FirstOrDefault(); 
  10.             builder.Append(identityName); 
  11.         } 
  12.     } 
  13.     /// <summary> 
  14.     /// Represent a http context layout renderer to access the current http context. 
  15.     /// </summary> 
  16.     public abstract class HttpContextLayoutRendererBase : LayoutRenderer 
  17.     { 
  18.         private IHttpContextAccessor _httpContextAccessor; 
  19.         /// <summary> 
  20.         /// Gets the <see cref="IHttpContextAccessor"/>. 
  21.         /// </summary> 
  22.         protected IHttpContextAccessor HttpContextAccessor { get { return _httpContextAccessor ?? (_httpContextAccessor = ServiceLocator.ServiceProvider.GetService<IHttpContextAccessor>()); } } 
  23.     } 
  24.     internal sealed class ServiceLocator 
  25.     { 
  26.         public static IServiceProvider ServiceProvider { get; set; } 
  27.     } 

 

② 从请求中获取 X-Request-Id 依赖 IHttpContextAccessor 组件

这里使用依赖查找的方式获取该组件,故请在Startup ConfigureService 中生成服务

  1. public void ConfigureServices(IServiceCollection services) 
  2.  { 
  3.      // ...... 
  4.      ServiceLocator.ServiceProvider = services.BuildServiceProvider(); 
  5.  } 

③ 最后在 Program 中注册这个NLog Render:

  1.  public static void Main(string[] args) 
  2.      LayoutRenderer.Register<XRequestIdLayoutRender>("x_request_id"); 
  3.      CreateHostBuilder(args).Build().Run(); 

这样从 Ingress-Nginx 产生的request_id,将会流转到 Backend App, 并在日志分析中起到巨大作用,也便于划清运维/开发的故障责任。

  • https://kubernetes.github.io/ingress-nginx/user-guide/nginx-configuration/configmap/#generate-request-id
  • http://nginx.org/en/docs/http/ngx_http_proxy_module.html#proxy_pass_request_headers

总结

1.了解了Ingress在应用层工作,根据Host和Path暴露k8s服务。

2.本文梳理了Ingress和常见的Ingress-nginx的关系。

3.对于应用了Ingress的应用,梳理了从Ingress-nginx到WebApp的日志追踪id, 便于排查网络/业务故障。

 

责任编辑:武晓燕 来源: 全栈码农画像
相关推荐

2021-12-22 07:47:42

Kubernetes 运维开源

2022-02-15 14:22:46

灰度发布互联网业务

2022-09-09 20:55:38

LinkerdKubernetes

2024-11-01 08:57:07

2018-04-10 10:32:07

NginxApache服务器

2022-03-15 08:36:34

NginxKubernetesIngress

2020-10-21 10:50:24

LVSNginxHAProxy

2010-09-16 14:42:44

JVM

2015-07-02 09:56:48

ReactiveCociOS

2023-09-27 12:22:50

Kafka架构

2010-09-26 08:50:11

JVM工作原理

2009-07-09 14:01:22

JVM工作原理

2023-03-03 11:12:34

Kubernetes控制器后端

2021-12-20 00:03:38

Webpack运行机制

2018-12-19 10:05:15

LVSNginxHAProxy

2019-07-31 09:04:42

LVSNginxHAProxy

2022-05-31 08:04:03

Redis高可用集群

2024-02-26 00:00:00

Nginx服务器HTTP

2010-09-17 15:32:52

JVM工作原理

2016-12-13 22:51:08

androidmultidex
点赞
收藏

51CTO技术栈公众号