Nginx高频面试题
Nginx高频面试题
1.什么是Nginx?
Nginx是一个 轻量级/高性能的反向代理Web服务器,他实现非常高
效的反向代理、负载平衡,他可以处理2-3万并发连接数,官方监测
能支持5万并发,现在中国使用nginx网站用户有很多,例如:新
浪、网易、 腾讯等。
2.为什么要用Nginx?
跨平台、配置简单、方向代理、高并发连接:处理2-3万并发连接数,官方监测能支持5万并发,内存消耗小:开启10个nginx才占150M内存 ,nginx处理静态文件好,耗费内存少,
而且Nginx内置的健康检查功能:如果有一个服务器宕机,会做一 个健康检查,再发送的请求就不会发送到宕机的服务器了。重新将 请求提交到其他的节点上。
同时还有如下优点:节省宽带:支持GZIP压缩,可以添加浏览器本地缓存 稳定性高:宕机的概率非常小 接收用户请求是异步的
3.什么是正向代理和反向代理?
- 正向代理就是一个人发送一个请求直接就到达了目标的服务器
- 反方代理就是请求统一被Nginx接收,nginx反向代理服务器接收到之后,按照一定的规 则分发给了后端的业务处理服务器进行处理了
4.Nginx的优缺点?
优点:占内存小,可实现高并发连接,处理响应快可实现http服务器、虚拟主机、方向代理、负载均衡Nginx配置简单 可以不暴露正式的服务器IP地址
缺点:动态处理差:nginx处理静态文件好,耗费内存少,但是处理动态页面则很鸡肋,现在一般前端用nginx作为反向代理抗住压力
5.Nginx应用场景?
http服务器。Nginx是一个http服务可以独立提供http服务。可以做 网页静态服务器。 虚拟主机。可以实现在一台服务器虚拟出多个网站,例如个人网站 使用的虚拟机。 反向代理,负载均衡。当网站的访问量达到一定程度后,单台服务 器不能满足用户的请求时,需要用多台服务器集群可以使用nginx做 反向代理。并且多台服务器可以平均分担负载,不会应为某台服务 器负载高宕机而某台服务器闲置的情况。
nginz 中也可以配置安全管理、比如可以使用Nginx搭建API接口网关,对每个接口服务进行拦截。
6.location的作用是什么?
location指令的作用是根据用户请求的URI来执行不同的应用,也就是根据用户请求的网站URL进行匹配,匹配成功即进行相关的操作。
7.location的语法能说出来吗?

示例如下:
#优先级1,精确匹配,根路径
location =/ {
return 400;
}
#优先级2,以某个字符串开头,以av开头的,优先匹配这里,区分大小写
location ^~ /av {
root /data/av/;
}
#优先级3,区分大小写的正则匹配,匹配/media*****路径
location ~ /media {
alias /data/static/;
}
#优先级4 ,不区分大小写的正则匹配,所有的
****.jpg|gif|png 都走这里
location ~* .*\.(jpg|gif|png|js|css)$ {
root /data/av/;
}
#优先7,通用匹配
location / {
return 403;
}8.限流怎么做的?
Nginx限流就是限制用户请求速度,防止服务器受不了限流有3种
- 正常限制访问频率(正常流量)
- 突发限制访问频率(突发流量)
- 限制并发连接数
Nginx的限流都是基于漏桶流算法,底下会说道什么是桶铜流
正常限制访问频率(正常流量)
限制一个用户发送的请求,我Nginx多久接收一个请求。
Nginx中使用ngx_http_limit_req_module模块来限制的访问频 率,限制的原理实质是基于漏桶算法原理来实现的。在
nginx.conf配置文件中可以使用limit_req_zone命令及limit_req命令限制单个IP的请求处理频率。
#定义限流维度,一个用户一分钟一个请求进来,多余的全部漏掉
limit_req_zone $binary_remote_addr
zone=one:10m rate=1r/m;
#绑定限流维度
server{
location/seckill.html{
limit_req zone=zone;
proxy_pass http://lj_seckill;
}
}突发限制访问频率(突发流量)
限制一个用户发送的请求,我Nginx多久接收一个。
上面的配置一定程度可以限制访问频率,但是也存在着一个问
题:如果突发流量超出请求被拒绝处理,无法处理活动时候的突
发流量,这时候应该如何进一步处理呢?Nginx提供burst参数
结合nodelay参数可以解决流量突发的问题,可以设置能处理的
超过设置的请求数外能额外处理的请求数。我们可以将之前的例 子添加burst参数以及nodelay参数:
#定义限流维度,一个用户一分钟一个请求进来,多余的全部漏掉
limit_req_zone $binary_remote_addr
zone=one:10m rate=1r/m;
#绑定限流维度
server{
location/seckill.html{
limit_req zone=zone burst=5 nodelay;
proxy_pass http://lj_seckill;
}
}为什么就多了一个 burst=5 nodelay; 呢,多了这个可以代表
Nginx对于一个用户的请求会立即处理前五个,多余的就慢
慢来落,没有其他用户的请求我就处理你的,有其他的请求 的话我Nginx就漏掉不接受你的请求
限制并发连接数
Nginx中的ngx_http_limit_conn_module模块提供了限制
并发连接数的功能,可以使用limit_conn_zone指令以及
limit_conn执行进行配置。接下来我们可以通过一个简单
的例子来看下:
http {
limit_conn_zone $binary_remote_addr
zone=myip:10m;
limit_conn_zone $server_name
zone=myServerName:10m;
}
server {
location / {
limit_conn myip 10;
limit_conn myServerName 100;
rewrite / http://www.lijie.net
permanent;
}
}上面配置了单个IP同时并发连接数最多只能10个连接,并且设置了
整个虚拟服务器同时最大并发数最多只能100个链接。当然,只有
当请求的header被服务器处理后,虚拟服务器的连接数才会计数。
刚才有提到过Nginx是基于漏桶算法原理实现的,实际上限流一般
都是基于漏桶算法和令牌桶算法实现的。接下来我们来看看两个算 法的介绍:
9.漏桶流算法和令牌桶算法知道?
漏桶算法
漏桶算法是网络世界中流量整形或速率限制时经常使用的一种算
法,它的主要目的是控制数据注入到网络的速率,平滑网络上的突
发流量。漏桶算法提供了一种机制,通过它,突发流量可以被整形
以便为网络提供一个稳定的流量。也就是我们刚才所讲的情况。漏
桶算法提供的机制实际上就是刚才的案例:突发流量会进入到一个
漏桶,漏桶会按照我们定义的速率依次处理请求,如果水流过大也
就是突发流量过大就会直接溢出,则多余的请求会被拒绝。所以漏
桶算法能控制数据的传输速率。
令牌桶算法
令牌桶算法是网络流量整形和速率限制中最常使用的一种算法。典
型情况下,令牌桶算法用来控制发送到网络上的数据的数目,并允
许突发数据的发送。Google开源项目Guava中的RateLimiter使用的 就是令牌桶控制算法。令牌桶算法的机制如下:存在一个大小固定 的令牌桶,会以恒定的速率源源不断产生令牌。如果令牌消耗速率 小于生产令牌的速度,令牌就会一直产生直至装满整个令牌桶。
10.为什么要做动静分离?
Nginx是当下最热的Web容器,网站优化的重要点在于静态化网 站,网站静态化的关键点则是是动静分离,动静分离是让动态网站 里的动态网页根据一定规则把不变的资源和经常变的资源区分开 来,动静资源做好了拆分以后,我们则根据静态资源的特点将其做 缓存操作。
让静态的资源只走静态资源服务器,动态的走动态的服务器Nginx的静态处理能力很强,但是动态处理能力不足,因此,在企 业中常用动静分离技术。
对于静态资源比如图片,js,css等文件,我们则在反向代理服务器
nginx中进行缓存。这样浏览器在请求一个静态资源时,代理服务器
nginx就可以直接处理,无需将请求转发给后端服务器tomcat。
若用户请求的动态文件,比如servlet,jsp则转发给Tomcat服务器处
理,从而实现动静分离。这也是反向代理服务器的一个重要的作 用。
11.Nginx怎么做的动静分离?
只需要指定路径对应的目录。location/可以使用正则表达式匹配。
并指定对应的硬盘中的目录。如下:(操作都是在Linux上)
location /image/ {
root /usr/local/static/;
autoindex on;
}
创建目录<br>
mkdir /usr/local/static/image 1 进入目录
cd /usr/local/static/image 1 放一张照片上去#
1.jpg 1
重启 nginx
sudo nginx -s reload 1
打开浏览器 输入 server_name/image/1.jpg 就可以访问该静态图片了12 负载均衡
轮询
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
#tcp_nopush on;
#keepalive_timeout 0;
keepalive_timeout 65;
#gzip on;
upstream myserver{
server 192.168.3.201:8080;
server 192.168.3.201:8081;
}
server {
listen 80;
server_name localhost;
location / {
proxy_pass http://myserver;
}
#error_page 404 /404.html;
# redirect server error pages to the static page /50x.html
#error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}#启动验证
#构建镜像
docker build -t nginx_webapi .
#启动项目
docker run -d -p8080:80 -v
/home/nginx/Zhaoxi.WebApi/8080/appsettings.json:/
app/appsettings.json --name
nginx_webapi8080 nginx_webapi
#启动项目
docker run -d -p8081:80 -v
/home/nginx/Zhaoxi.WebApi/8081/appsettings.json:/
app/appsettings.json --name nginx_webapi8081
nginx_webapi
###http://192.168.3.201:8090/getweight权重:可以给每一台服务器设置一个权重,这样权重高的干的活也就会多一点
upstream myserver{
server 192.168.3.201:8080 weight=5;
server 192.168.3.201:8081 weight=10;
}ip_hash:这种方式是基于客户端的ip地址,采用hash算法计算下一个请求要选择哪一个服务器,这样固定的ip会访问同一个服务器,可以解决session问题
upstream myserver{
ip_hash;
server 192.168.3.201:8080;
server 192.168.3.201:8081;
}least_conn:最少链接会将下一个请求分发到当前链接数最少的一台服务器
upstream myserver {
least_conn;
server 192.168.3.201:8080;
server 192.168.3.201:8081;
}fair:按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream myserver {
fair;
server 192.168.3.201:8080;
server 192.168.3.201:8081;
}url_hash:按访问url的hash结果来分配请求,使每个url定向到同一个后端服 务器资源集群服务器,缓存文件,文件存储在第三发服务,则可以缓存到本 地服务器
upstream myserver {
hash $request_uri;
server squid1:3128;
server squid2:3128;
}12.Nginx配置高可用性怎么配置?
当上游服务器(真实访问服务器),一旦出现故障或者是没有及时相应 的话,应该直接轮训到下一台服务器,保证服务器的高可用
Nginx配置代码:
server {
listen 80;
server_name www.lijie.com;
location / {
### 指定上游服务器负载均衡服务器
proxy_pass http://backServer;
###nginx与上游服务器(真实访问的服务器)超时时间 后
端服务器连接的超时时间_发起握手等候响应超时时间
proxy_connect_timeout 1s;
###nginx发送给上游服务器(真实访问的服务器)超时时间
proxy_send_timeout 1s;
### nginx接受上游服务器(真实访问的服务器)超时时间
proxy_read_timeout 1s;
index index.html index.htm;
}
}Nginx怎么判断别IP不可访问?
# 如果访问的ip地址为192.168.9.115,则返回403
if ($remote_addr = 192.168.9.115) {
return 403;
}怎么限制浏览器访问?
## 不允许谷歌浏览器访问 如果是谷歌浏览器返回500
if ($http_user_agent ~ Chrome) {
return 500;
}
13、nginx和apache的区别?
轻量级,同样起web 服务,比apache 占用更少的内存及资源;抗
并发,nginx处理请求是异步非阻塞的,而apache 则是阻塞型的,
在高并发下nginx 能保持低资源低消耗高性能;高度模块化的设
计,编写模块相对简单;最核心的区别在于apache是同步多进程模
型,一个连接对应一个进程;nginx是异步的,多个连接(万级别)可以对应一个进程。
14、nginx是如何实现高并发的?
一个主进程,多个工作进程,每个工作进程可以处理多个请求,每
进来一个request,会有一个worker进程去处理。但不是全程的处
理,处理到可能发生阻塞的地方,比如向上游(后端)服务器转发
request,并等待请求返回。那么,这个处理的worker继续处理其
他请求,而一旦上游服务器返回了,就会触发这个事件,worker才
会来接手,这个request才会接着往下走。由于web server的工作
性质决定了每个request的大部份生命都是在网络传输中,实际上花
费在server机器上的时间片不多。这是几个进程就解决高并发的秘
密所在。即@skoo所说的webserver刚好属于网络io密集型应用,
不算是计算密集型。
15、什么是C10K问题?
C10K问题是指无法同时处理大量客户端(10,000)的网络套接字。
16、为什么不使用多线程?
答:Nginx:采用单线程来异步非阻塞处理请求(管理员可以配置
Nginx主进程的工作进程的数量),不会为每个请求分配cpu和内存
资源,节省了大量资源,同时也减少了大量的CPU的上下文切换,
所以才使得Nginx支持更高的并发。
17、Nginx如何处理请求?
Nginx启动后,首先进行配置文件的解析,解析成功会得到虚拟服
务器的ip和端口号,在主进程master进程中创建socket,对
addrreuse选项进行设置,并将socket绑定到对应的ip地址和端口
并进行监听。然后创建子进程worker进程,当客户端和Nginx进行
三次握手,则可以创建成功与Nginx的连接。当有新的请求进入
时,空闲的worker进程会竞争,当某一个worker进程竞争成功,则
会得到这个已经成功建立连接的socket,然后创建 ngx_connection_t结构体,接下来设置读写事件处理函数并添加读
写事件用来与客户端进行数据交换。当请求结束Nginx或者客户端
主动关闭连接,此时一个请求处理完毕。
18Nginx常用优化配置
- 调整worker_processes指定Nginx需要创建的worker进程数量,刚才有提到worker进程数一般设置为和CPU核心数一致。
- 调整worker_connections设置Nginx最多可以同时服务的客户端数。结合worker_processes配置可以获得每秒可以服务的最大 客户端数。
- 启动gzip压缩,可以对文件大小进行压缩,减少了客户端http的传输带宽,可以大幅度提高页面的加载速度。
- 启用缓存,如果请求静态资源,启用缓存是可以大幅度提升性能的。
19.nginx 请求合并
当我们在浏览网页的时候,对浏览速度有一个重要的影响因素,就是浏览器的并发数量。并发数量简单通俗的讲就是,当浏览器网页的时候同时工作的进行数量。当然浏览器的并发请求数目限制是针对同一域名的,同一时间针对同一域名下的请求有一定数量限制,超过限制数目的请求会被阻塞。
首先我们看下各个浏览器的并发连接数:
安装第三方模块nginx-http-concat
合并访问:http://ip:port/static/css/??index.css,common.css
20.请陈述stub_status和sub_filter指令的作用是什么?
Stub_status指令:该指令用于了解Nginx当前状态的当前状态,如当前的活动连接,接受和处理当前读/写/等待连接的总数 ;
Sub_filter指令:它用于搜索和替换响应中的内容,并快速修复陈旧的数据
21.Nginx是否支持将请求压缩到上游?
可以使用Nginx模块gunzip将请求压缩到上游。gunzip模块是一个
过滤器,它可以对不支持“gzip”编码方法的客户机或服务器使用“内
容编码:gzip”来解压缩响应。
22.用Nginx服务器解释-s的目的是什么?
用于运行Nginx -s参数的可执行文件。
23.解释如何在Nginx服务器上添加模块?
在编译过程中,必须选择Nginx模块,因为Nginx不支持模块的运 行时间选择。
24. Nginx 配置 HTTPS
Nginx 配置 HTTPS 需要SSL证书和私钥文件,在 server 块中配置 ssl 相关参数即可启用 HTTPS。
server {
listen 443 ssl;
server_name www.example.com;
# SSL 证书路径
ssl_certificate /etc/nginx/ssl/server.crt;
ssl_certificate_key /etc/nginx/ssl/server.key;
# SSL 协议版本
ssl_protocols TLSv1.2 TLSv1.3;
# 加密套件
ssl_ciphers HIGH:!aNULL:!MD5;
ssl_prefer_server_ciphers on;
# SSL 会话缓存
ssl_session_cache shared:SSL:10m;
ssl_session_timeout 10m;
# HTTP 跳转 HTTPS
# 在另一个 server 块中
# return 301 https://$host$request_uri;
}HTTPS 配置要点:
- 生产环境建议使用 CA 签发的证书(Let's Encrypt 免费或购买商业证书)
- TLSv1.3 性能和安全性均优于 TLSv1.2,推荐优先使用
- ssl_session_cache 可复用 SSL 会话,减少握手开销
- 开启 HSTS(Strict-Transport-Security)头可防止降级攻击
- 证书更新后需要 reload Nginx:nginx -s reload25. Nginx rewrite 规则
rewrite 指令用于修改请求 URI 或做重定向,常用于 URL 美化、域名跳转和旧 URL 兼容。
# 基本语法:rewrite regex replacement [flag]
# flag 选项:
# last: 停止当前 rewrite 阶段,重新开始 location 匹配
# break: 停止当前 rewrite 阶段,不再重新匹配 location
# redirect: 返回 302 临时重定向
# permanent: 返回 301 永久重定向
server {
# 将 /old-path 永久重定向到 /new-path
rewrite ^/old-path(.*)$ /new-path$1 permanent;
# 将 HTTP 跳转到 HTTPS
if ($scheme = http) {
rewrite ^(.*)$ https://$host$1 permanent;
}
# 将不带 www 的域名跳转到 www
if ($host = 'example.com') {
rewrite ^(.*)$ http://www.example.com$1 permanent;
}
# API 版本路由
rewrite ^/api/v1/(.*)$ /api/v2/$1 break;
}rewrite 注意事项:
- last 和 break 的区别:last 会重新发起 location 匹配,break 不会
- 避免 rewrite 死循环,Nginx 默认最多循环 10 次后返回 500
- 生产环境尽量用 return 301/302 替代 rewrite permanent/redirect
- rewrite 正则中 () 捕获的内容可以用 $1, $2 引用26. Nginx 反向代理配置详解
Nginx 作为反向代理时,需要正确配置代理头和超时参数,确保后端服务能获取真实的客户端信息。
server {
listen 80;
server_name api.example.com;
location / {
proxy_pass http://backend_servers;
# 传递真实客户端信息
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
# WebSocket 支持
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection "upgrade";
# 超时配置
proxy_connect_timeout 60s; # 连接后端超时
proxy_send_timeout 60s; # 发送请求超时
proxy_read_timeout 120s; # 读取响应超时
# 缓冲配置
proxy_buffering on;
proxy_buffer_size 4k;
proxy_buffers 8 4k;
# 错误处理
proxy_next_upstream error timeout http_502 http_503 http_504;
proxy_next_upstream_tries 3;
}
}反向代理关键配置:
- X-Forwarded-For: 后端需要获取客户端真实 IP
- WebSocket: 需要 Upgrade 头和 HTTP/1.1
- proxy_next_upstream: 后端故障时自动切换到下一个上游服务器
- proxy_buffering: 打开时 Nginx 缓存后端响应再发给客户端,关闭则实时转发
- 文件上传场景需要调大 client_max_body_size(默认 1MB)27. Nginx 缓存配置
Nginx 可以作为缓存代理服务器,缓存后端的响应,减少重复请求。
http {
# 定义缓存路径和参数
proxy_cache_path /var/cache/nginx levels=1:2 keys_zone=api_cache:10m
max_size=1g inactive=60m use_temp_path=off;
server {
location /api/ {
proxy_pass http://backend;
proxy_cache api_cache;
# 缓存 key(按完整 URL)
proxy_cache_key $scheme$proxy_host$request_uri;
# 缓存有效期
proxy_cache_valid 200 302 10m;
proxy_cache_valid 404 1m;
# 缓存命中状态头(调试用)
add_header X-Cache-Status $upstream_cache_status;
# 缓存锁(防止缓存击穿)
proxy_cache_lock on;
proxy_cache_lock_timeout 5s;
# 过期后允许使用旧缓存
proxy_cache_use_stale error timeout updating;
# 浏览器缓存
expires 5m;
}
}
}缓存策略说明:
- proxy_cache_path: 定义共享内存区域和磁盘缓存目录
- levels=1:2: 使用两级目录结构,避免单目录文件过多
- keys_zone: 共享内存区域,存储缓存 key 和元数据
- max_size: 缓存最大磁盘空间
- inactive: 在该时间内没有被访问的缓存会被删除
- $upstream_cache_status 值:HIT(命中)、MISS(未命中)、EXPIRED(过期)、STALE(使用旧缓存)
- 缓存击穿防护:proxy_cache_lock 确保同一时间只有一个请求回源28. Nginx 日志配置
Nginx 日志分为 access_log(访问日志)和 error_log(错误日志),支持自定义日志格式。
http {
# 自定义日志格式(记录代理相关信息)
log_format main '$remote_addr - $remote_user [$time_local] '
'"$request" $status $body_bytes_sent '
'"$http_referer" "$http_user_agent" '
'"$http_x_forwarded_for" '
'rt=$request_time uct=$upstream_connect_time '
'uht=$upstream_header_time urt=$upstream_response_time';
log_format json_log escape=json
'{'
'"time":"$time_iso8601",'
'"remote_addr":"$remote_addr",'
'"request":"$request",'
'"status":$status,'
'"body_bytes_sent":$body_bytes_sent,'
'"request_time":$request_time,'
'"upstream_response_time":"$upstream_response_time",'
'"http_referer":"$http_referer",'
'"http_user_agent":"$http_user_agent"'
'}';
# 使用自定义格式
access_log /var/log/nginx/access.log main;
# JSON 格式日志(适合日志采集)
access_log /var/log/nginx/access.json.log json_log;
# 错误日志级别:debug | info | notice | warn | error | crit
error_log /var/log/nginx/error.log warn;
server {
# 特定 location 使用独立日志
location /api/ {
access_log /var/log/nginx/api_access.log main;
# 关闭某些 location 的日志(如健康检查)
# access_log off;
}
}
}日志相关变量:
- $request_time: 请求总处理时间(从接收请求到发送响应)
- $upstream_connect_time: 与后端建立连接的时间
- $upstream_header_time: 从建立连接到接收后端响应头的时间
- $upstream_response_time: 后端处理时间
- 日志轮转建议使用 logrotate 配合 cron
- 高流量场景建议 JSON 格式 + ELK/Loki 采集29. Nginx 安全加固
server {
# 隐藏版本号
server_tokens off;
# 安全响应头
add_header X-Frame-Options "SAMEORIGIN" always;
add_header X-Content-Type-Options "nosniff" always;
add_header X-XSS-Protection "1; mode=block" always;
add_header Content-Security-Policy "default-src 'self'" always;
add_header Strict-Transport-Security "max-age=31536000; includeSubDomains" always;
# 禁止敏感路径访问
location ~ /\.(git|svn|env) {
deny all;
return 404;
}
# IP 白名单
location /admin/ {
allow 192.168.1.0/24;
allow 10.0.0.0/8;
deny all;
proxy_pass http://backend;
}
# 防止大文件攻击
client_max_body_size 10m;
client_body_buffer_size 128k;
# 超时防护
client_header_timeout 60s;
client_body_timeout 60s;
# 基础认证
location /internal/ {
auth_basic "Restricted Area";
auth_basic_user_file /etc/nginx/.htpasswd;
proxy_pass http://backend;
}
}安全加固要点:
- server_tokens off: 隐藏 Nginx 版本号,减少信息泄露
- X-Frame-Options: 防止点击劫持
- X-Content-Type-Options: 防止 MIME 类型嗅探
- HSTS: 强制浏览器使用 HTTPS
- 禁止访问隐藏文件和敏感目录
- 基础认证使用 htpasswd 文件管理用户密码
- 生产环境建议配合 WAF(如 ModSecurity)做更深层防护30. Nginx 常用性能调优参数
# nginx.conf 全局性能调优
user nginx;
worker_processes auto; # 自动匹配 CPU 核心数
worker_cpu_affinity auto; # 自动绑定 CPU 亲和性
worker_rlimit_nofile 65535; # worker 进程最大打开文件数
events {
use epoll; # Linux 使用 epoll
worker_connections 4096; # 单个 worker 最大连接数
multi_accept on; # 一次性接受所有新连接
accept_mutex off; # 高并发时关闭互斥锁提升性能
}
http {
# 连接优化
keepalive_timeout 65; # 长连接超时
keepalive_requests 10000; # 单个长连接最大请求数
reset_timedout_connection on; # 超时后立即关闭连接
# 文件传输优化
sendfile on; # 使用内核 sendfile
tcp_nopush on; # 优化数据包发送
tcp_nodelay on; # 禁用 Nagle 算法
# 压缩配置
gzip on;
gzip_min_length 1k;
gzip_comp_level 4; # 压缩级别 1-9,4 是性价比最优
gzip_types text/plain application/json application/javascript text/css;
# 缓冲配置
client_body_buffer_size 16k;
client_header_buffer_size 1k;
large_client_header_buffers 4 8k;
# 输出缓冲
output_buffers 1 32k;
postpone_output 1460;
}性能调优关键参数:
- worker_processes: 通常设为 auto 或等于 CPU 核心数
- worker_connections: 理论最大并发 = worker_processes * worker_connections
- sendfile: 零拷贝传输,减少内核态和用户态的数据拷贝
- tcp_nopush: 在 sendfile 启用时优化数据包发送
- gzip_comp_level: 4 是压缩率和 CPU 消耗的平衡点
- keepalive: 启用长连接减少 TCP 握手开销
- 实际调优需要根据业务特征和压测结果来调整这组题真正考什么
- 面试官往往不只是考定义,而是在看你能否把基础概念放回真实 .NET 场景。
- 这类题经常沿着语言基础、框架设计、性能和工程实践往下追问。
- 高分答案通常有三层:结论、原因、项目中的例子。
60 秒答题模板
- 先用一句话给结论。
- 再补关键原理或底层机制。
- 最后说适用边界、常见坑或项目中的使用经验。
容易失分的点
- 只会背术语,不会举例。
- 回答太散,没有结构。
- 忽略版本差异和工程背景。
刷题建议
- 把答案拆成“定义、适用场景、风险点、实战例子”四段来复述。
- 遇到 .NET 基础题时,尽量补一个框架级别的落地场景,而不是只背术语。
- 高频概念题建议自己再追问一层:底层原理、常见坑、性能代价分别是什么。
高频追问
- 如果面试官继续追问底层实现,你能否解释运行机制或源码层面的关键点?
- 如果题目放到 ASP.NET Core、消息队列或数据库场景里,这个结论是否还成立?
- 是否存在版本差异、框架差异或特殊边界条件需要主动说明?
复习重点
- 把每道题的关键词整理成自己的知识树,而不是只背原句。
- 对容易混淆的概念要做横向比较,例如机制差异、适用边界和性能代价。
- 复习时优先补“为什么”,其次才是“怎么用”和“记住什么术语”。
面试作答提醒
- 先给结论,再补原因和例子。
- 回答基础题时不要只说“能用”,最好补一句为什么这样选。
- 如果记不清细节,优先说出适用边界和排查思路。
