Nginx 也是我们比较常见的“玩具”了,不过有的小伙伴对 Nginx 配置不熟悉,每次使用的时候都要搜索,松哥在本文中给出一些常见的配置案例,小伙伴们可以收藏备用。
Nginx(发音为“Engine-X”)是一个开源的高性能 HTTP 和反向代理服务器,同时也是一个 IMAP/POP3/SMTP 代理服务器。由俄罗斯程序员 Igor Sysoev 创建。它以其高稳定性、丰富的功能集、简单的配置和低资源消耗而闻名。
Nginx 最初是为了解决 C10K 问题(即同时处理 10000 个客户端连接)而设计的,现在已经成为世界上最流行的 Web 服务器之一。
选择 Nginx 当然是因为它好,好在哪里呢?
高性能:Nginx 能够处理大量的并发连接,而内存使用率相对较低。
高可靠性:Nginx 的设计目标是提供 7x24 小时不间断的服务。
模块化:Nginx 拥有丰富的模块系统,可以轻松扩展其功能。
配置简单:Nginx 的配置文件结构清晰,易于理解和管理。
跨平台:Nginx 可以在多种操作系统上运行,包括 Linux、BSD、MacOS 和 Windows。
Nginx 是我们常用的负载均衡工具之一,它可以将请求分发到多个服务器上,以实现负载均衡。
举个栗子:
http {
upstream myapp1 { # 定义一个名为myapp1的服务器组
server backend1.example.com weight=5; # 添加一个服务器,并设置权重为5
server backend2.example.com; # 添加另一个服务器,权重默认为1
server backend3.example.com down; # 将此服务器标记为down,不参与负载均衡
server backup1.example.com backup; # 将此服务器作为备份服务器
}
server {
listen 80; # 监听80端口
location / { # 匹配所有请求
proxy_pass http://myapp1; # 将请求转发到myapp1服务器组
proxy_set_header Host $host; # 设置请求头中的Host字段为原始请求的Host
proxy_set_header X-Real-IP $remote_addr; # 设置请求头中的X-Real-IP字段为客户端的真实IP地址
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; # 设置请求头中的X-Forwarded-For字段,以记录原始请求和代理链的IP地址
proxy_set_header X-Forwarded-Proto $scheme; # 设置请求头中的X-Forwarded-Proto字段为原始请求的协议(http或https)
}
}
}
上面的负载均衡策略是权重,除了权重之外,还有轮询以及 ip_hash 等。
轮询是 Nginx 默认的负载均衡策略,它将客户端的请求按顺序轮流分配到后端服务器上。如果后端服务器宕机,Nginx 会自动将其剔除出队列,直到该服务器恢复正常。
举个栗子:
upstream backend {
server backend1.example.com;
server backend2.example.com;
server backend3.example.com;
}
server {
...
location / {
proxy_pass http://backend;
}
...
}
在上面的配置中,Nginx 会将请求依次分配给 backend1、backend2 和 backend3,循环往复。
权重策略允许你为后端服务器分配不同的权重,权重越高的服务器将接收更多的请求。这可以根据服务器的硬件配置、处理能力等因素进行灵活配置。
这个就不举例了,3.1 小节的就是权重。
IP 哈希策略根据客户端的 IP 地址进行哈希运算,将相同的请求分配给同一个后端服务器。
这种策略适用于需要保持会话(Session)的场景,因为同一个客户端的请求会被发送到同一个服务器,从而避免了会话信息的丢失。
举个栗子:
upstream backend {
ip_hash;
server backend1.example.com;
server backend2.example.com;
server backend3.example.com;
}
server {
...
location / {
proxy_pass http://backend;
}
...
}
在上面的配置中,Nginx 会根据客户端的 IP 地址进行哈希运算,然后将请求分配到对应的后端服务器。
最少连接策略将新的请求分配给当前连接数最少的后端服务器。这种策略可以确保每个后端服务器的负载相对均衡,避免某个服务器过载而其他服务器空闲的情况。
注意:Nginx 原生的 Stream 模块支持最少连接,但在 HTTP 模块中通常需要借助第三方插件或脚本实现。
对于 HTTP 模块,可以通过第三方插件如 ngx_http_upstream_fair_module 或编写 Lua 脚本来实现类似的功能。
但在 Stream 模块中,可以直接配置,下面是一个 Stream 中配置的例子:
upstream backend {
least_conn;
server backend1.example.com;
server backend2.example.com;
server backend3.example.com;
}
stream {
server {
listen 12345;
proxy_pass backend;
}
}
Nginx 可以将动态请求(如 Java API)和静态请求(如图片、CSS 和 JavaScript 文件)分离处理,提高网站性能。这也是我们目前在部署前后端分离项目时常见的方案之一。
动静分离可以根据请求后缀确定资源类别(动态资源还是静态资源),也可以通过请求的 URL 去确定资源类别,下面松哥给的案例是通过请求 URL 后缀来确定资源类别。
举个栗子:
server {
listen 80;
server_name example.com;
location ~* \.(jpg|jpeg|png|gif|ico|css|js)$ {
root /data/static;
expires 30d; # 缓存静态文件30天
}
location / {
proxy_pass http://javaboy.org; # 假设后端应用服务器
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
Nginx 可以作为反向代理服务器,将客户端请求转发到后端服务器。
这个配置其实有点类似于负载均衡。
举个栗子:
server {
listen 80;
server_name example.com;
location / {
proxy_pass http://localhost:8080; # 转发请求到本地的8080端口
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
Nginx 可以通过限制请求频率来防止服务器过载。
Nginx 官方版本限制 IP 的连接和并发分别有两个模块:
举个栗子:
http {
limit_req_zone $binary_remote_addr zone=mylimit:10m rate=1r/s;
server {
listen 80;
location / {
limit_req zone=mylimit burst=5 nodelay;;
proxy_pass http://javaboy.org;
}
}
}
limit_req_zone $binary_remote_addr zone=mylimit:10m rate=1r/s;
limit_req zone=mylimit burst=5 nodelay;
Nginx 可以缓存静态内容,减少后端服务器的负载。
举个栗子:
http {
proxy_cache_path /data/nginx/cache levels=1:2 keys_zone=my_cache:10m max_size=10g inactive=60m use_temp_path=off;
# 定义缓存路径、目录结构、缓存区名称和大小、最大缓存大小、非活动数据清理时间,以及是否使用临时路径
server {
listen 80;
location / {
proxy_pass http://backend; # 转发请求到后端服务器
proxy_cache my_cache; # 启用名为my_cache的缓存
proxy_cache_valid 200 302 10m; # 对HTTP 200和302响应缓存10分钟
proxy_cache_valid 404 1m; # 对HTTP 404响应缓存1分钟
proxy_cache_methods GET HEAD; # 对哪些方法进行缓存
# 其他可能的配置,如缓存清理策略、缓存键计算等
}
}
}
缓存这块松哥稍微解释下:
Nginx 可以处理 SSL/TLS 握手,减轻后端服务器的负担。
举个栗子:
server {
listen 443 ssl; # 监听443端口,并启用SSL
server_name example.com; # 设置服务器名称
ssl_certificate /path/to/your/fullchain.pem; # SSL证书文件路径
ssl_certificate_key /path/to/your/privatekey.pem; # SSL私钥文件路径
ssl_session_timeout 1d; # SSL会话超时时间
ssl_session_cache shared:MozSSL:10m; # SSL会话缓存设置
ssl_session_tickets off; # 禁用SSL会话票证
ssl_protocols TLSv1.2 TLSv1.3; # 启用的SSL/TLS协议版本
ssl_prefer_server_ciphers on; # 偏好使用服务器端的密码套件配置
ssl_ciphers '...'; # 使用的密码套件列表,这里省略了具体值
location / {
# 这里可以配置如何处理HTTP请求,但通常对于HTTPS,主要配置在server块级别
}
}
Nginx 支持 WebSocket 协议,可以用于实时通信。
举个栗子:
server {
listen 80; # 监听80端口(注意:WebSocket通常使用443端口并启用SSL,但这里为了示例保持简单)
location /ws { # 匹配以/ws开头的请求
proxy_pass http://websocket_backend; # 转发请求到WebSocket后端服务器
proxy_http_version 1.1; # 代理时使用的HTTP版本
proxy_set_header Upgrade $http_upgrade; # 传递Upgrade头部以支持WebSocket
proxy_set_header Connection "upgrade"; # 设置Connection头部为upgrade以支持WebSocket
proxy_set_header Host $host; # 传递Host头部
# 其他可能的配置,如处理WebSocket特有的超时、缓冲等
}
}
Nginx 亦可以用作 API 网关,配置如下:
http {
# 定义一个或多个upstream块,用于配置后端服务器组
upstream backend_servers {
server backend1.example.com;
server backend2.example.com;
}
server {
listen 80; # 监听80端口
server_name api.example.com; # 设置你的API网关域名
# 配置SSL(如果需要HTTPS)
# ssl_certificate /path/to/cert.pem;
# ssl_certificate_key /path/to/cert.key;
# 定义不同的location块,用于匹配不同的API路径
location /api/v1/video/ {
proxy_pass http://video_service; # 假设你有一个视频服务的upstream
proxy_http_version 1.1;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
location /api/v1/homework/ {
proxy_pass http://homework_service; # 假设你有一个作业服务的upstream
# 其他代理设置...
}
# 可以继续添加其他location块以匹配更多API路径
# 其他server块配置...
}
# 其他http块配置...
# 定义其他upstream块,如video_service、homework_service等
upstream video_service {
server video1.example.com:8080;
server video2.example.com:8080;
}
upstream homework_service {
server homework1.example.com:8080;
server homework2.example.com:8080;
}
# ... 其他upstream定义
}
这个需要在 Nginx 配置文件中新增 stream 块(如果不存在的话)stream 块类似于 http 块,然后添加如下配置:
stream {
upstream tcp_backend {
server 192.168.1.10:3306 weight=5;
server 192.168.1.11:3306;
}
upstream udp_backend {
server 192.168.1.12:53 udp;
server 192.168.1.13:53 udp;
}
server {
listen 3306;
proxy_pass tcp_backend;
}
server {
listen 53 udp;
proxy_pass udp_backend;
}
}
Nginx 的全局配置包含了影响 Nginx 服务器整体行为的指令,这些指令主要位于全局块中。全局块通常位于 events 和 http 块之外,它包含了对 Nginx 服务器运行所需的基本配置,如用户和用户组、进程数、工作目录、错误日志级别、PID 文件路径等。
常用的 Nginx 全局配置的主要指令包括:
举个栗子
# 全局配置
user nginx nginx; # 指定运行Nginx的用户和用户组为nginx
worker_processes auto; # 自动设置工作进程数量,等于CPU核心数
# 错误日志配置
error_log /var/log/nginx/error.log warn; # 设置错误日志的路径和级别为warn
# PID文件配置
pid /var/run/nginx.pid; # 设置PID文件的存放位置
events 块用于设置服务器与客户端连接的相关属性配置。这些配置主要涉及网络连接和事件处理。
设置每个工作进程的最大客户端连接数。这个指令通常与 worker_processes 指令结合使用,来计算整个 Nginx 服务器的最大并发连接数。
举个栗子
events {
worker_connections 1024;
}
指定使用哪种事件模型。Nginx 支持多种事件模型,如 epoll(Linux)、kqueue(BSD)、select 和 poll 等。通常,Nginx 会根据操作系统自动选择最佳的事件模型,但也可以手动指定。
举个栗子
events {
use epoll;
}
设置是否允许服务器在单个监听事件中接受多个连接。这可以减少 I/O 等待时间,提高性能。
举个栗子
events {
multi_accept on;
}
在某些情况下,可以设置为 on 来允许多个工作进程同时监听相同的端口。默认情况下,它是关闭的,以避免多个进程间的端口竞争。
举个栗子
events {
accept_mutex on;
}
当 accept_mutex 被启用时,这个指令可以设置尝试获取互斥锁的延迟时间。
举个栗子
events {
accept_mutex_delay 10ms;
}
Nginx 是一个多功能、高性能的 Web 服务器和反向代理,适用于各种网络应用场景。它的模块化设计、简单的配置和高效的性能使其成为构建现代网络基础设施的理想选择。通过上述配置示例,我们可以看到 Nginx 在实际应用中的灵活性和强大功能。
下一篇
已是最新文章