当前位置:首页>Linux>Linux 系统性能调优 20 招:从 CPU 到网络的完整实战清单

Linux 系统性能调优 20 招:从 CPU 到网络的完整实战清单

  • 2026-03-27 10:08:06
Linux 系统性能调优 20 招:从 CPU 到网络的完整实战清单

关注「Raymond运维」公众号,并设为「星标」,也可以扫描底部二维码加入群聊,第一时间获取最新内容,不再错过精彩内容。

Linux 系统性能调优 20 招:从 CPU 到网络的完整实战清单

适用场景 & 前置条件

适用场景:高并发 Web 服务、数据库服务器、容器化平台、批处理任务节点。规模要求:单机 4C8G 起,生产集群 16C32G 典型配置。前置条件:root 或 sudo 权限;内核 3.10+(RHEL 7)或 4.15+(Ubuntu 18.04);已安装 sysstat/procps-ng/net-tools/perf。网络要求:无特殊端口需求,需要访问系统软件仓库。测试环境:测试于 2025-10,RHEL 8.9/Ubuntu 22.04 LTS,内核 4.18/5.15。

环境与版本矩阵

组件类型
RHEL/CentOS
Ubuntu/Debian
最小规格
推荐规格
OS 版本
7.9/8.9/9.3
20.04/22.04 LTS
-
-
内核版本
3.10.0-1160+ / 4.18+
4.15+ / 5.15+
-
-
CPU 核心
-
-
4C
16C+
内存容量
-
-
8GB
32GB+
磁盘 IO
SSD/NVMe
SSD/NVMe
SATA SSD
NVMe
网卡速率
-
-
1Gbps
10Gbps+
工具包
sysstat/perf/tuned
sysstat/linux-tools-common
-
-

快速清单(20 招调优 Checklist)

  1. 1. 禁用透明大页(避免内存碎片与延迟抖动)
  2. 2. 调整 CPU 调度器(选择 performance/powersave/ondemand)
  3. 3. 配置 CPU 亲和性(绑定关键进程到独立核心)
  4. 4. 优化内存 swappiness(减少交换分区使用)
  5. 5. 启用 Huge Pages(降低 TLB Miss)
  6. 6. 调整内核参数 vm.dirty_ratio(控制脏页刷盘时机)
  7. 7. 优化文件描述符限制(提升并发连接数)
  8. 8. 磁盘调度器选择(SSD 用 none/noop,HDD 用 deadline)
  9. 9. 文件系统挂载参数(noatime/nodiratime 减少写入)
  10. 10. 网络接收队列调整(net.core.netdev_max_backlog)
  11. 11. TCP 窗口与缓冲区(tcp_rmem/tcp_wmem/tcp_window_scaling)
  12. 12. TCP 连接队列(somaxconn/tcp_max_syn_backlog)
  13. 13. 启用 TCP Fast Open(减少握手往返)
  14. 14. 调整 TIME_WAIT 复用(tcp_tw_reuse/tcp_timestamps)
  15. 15. IRQ 中断亲和性(隔离网卡中断到专用核心)
  16. 16. 禁用 CPU 空闲态(intel_idle.max_cstate=0)
  17. 17. 调整进程优先级与 nice(关键进程 nice -n -10)
  18. 18. 配置 cgroup 资源限制(CPU/内存配额隔离)
  19. 19. 启用性能监控工具(perf/eBPF/bpftrace)
  20. 20. 定期清理缓存与日志(drop_caches/logrotate 自动化)

实施步骤(核心内容)

Step 1:禁用透明大页(Transparent Huge Pages)

问题:THP 导致内存碎片整理引发延迟尖刺(P99 可达数百毫秒)。

检查当前状态

# 查看 THP 状态cat /sys/kernel/mm/transparent_hugepage/enabled# 输出:[always] madvise never  (方括号表示当前启用)cat /sys/kernel/mm/transparent_hugepage/defrag

永久禁用

# 方法 1:通过内核参数(RHEL/Ubuntu 通用)echo'transparent_hugepage=never' | sudotee -a /etc/default/grubsudo grub2-mkconfig -o /boot/grub2/grub.cfg  # RHEL/CentOSsudo update-grub  # Ubuntu/Debian# 方法 2:通过 systemd 服务立即生效cat <<EOF | sudo tee /etc/systemd/system/disable-thp.service[Unit]Description=Disable Transparent Huge Pages (THP)DefaultDependencies=noAfter=sysinit.target local-fs.targetBefore=mongod.service mysql.service[Service]Type=oneshotExecStart=/bin/sh -c 'echo never > /sys/kernel/mm/transparent_hugepage/enabled'ExecStart=/bin/sh -c 'echo never > /sys/kernel/mm/transparent_hugepage/defrag'[Install]WantedBy=basic.targetEOFsudo systemctl daemon-reloadsudo systemctl enable --now disable-thp.service

验证

cat /sys/kernel/mm/transparent_hugepage/enabled# 预期输出:always madvise [never]

Step 2:调整 CPU 调度器与频率策略

场景:低延迟服务选 performance,批处理/节能场景选 powersave。

检查当前策略

# 查看所有 CPU 的调速器cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor# 或使用工具cpupower frequency-info

设置为 performance 模式

# 方法 1:临时设置(重启失效)echo performance | sudotee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor# 方法 2:使用 cpupower(RHEL/CentOS)sudo yum install -y kernel-tools  # RHELsudo apt install -y linux-tools-common linux-tools-$(uname -r)  # Ubuntusudo cpupower frequency-set -g performance# 方法 3:持久化配置(systemd)cat <<EOF | sudo tee /etc/systemd/system/cpufreq-performance.service[Unit]Description=Set CPU governor to performanceAfter=multi-user.target[Service]Type=oneshotExecStart=/usr/bin/cpupower frequency-set -g performanceRemainAfterExit=yes[Install]WantedBy=multi-user.targetEOFsudo systemctl daemon-reloadsudo systemctl enable --now cpufreq-performance.service

验证

cpupower frequency-info | grep "current policy"# 预期输出包含:governor "performance"

参数解释

  • • performance:CPU 始终运行在最高频率,延迟最低,功耗最高。
  • • powersave:CPU 运行在最低频率,功耗最低,适合非关键服务。
  • • ondemand:动态调整频率,平衡性能与功耗(内核 5.9+ 已废弃,改用 schedutil)。

Step 3:配置 CPU 亲和性(隔离关键进程)

场景:将 Nginx/Redis/MySQL 等进程绑定到独立核心,避免调度抖动。

查看进程 CPU 使用

# 查看进程运行在哪些核心ps -eo pid,comm,psr | grep nginx# psr 列显示当前 CPU 编号

绑定进程到指定 CPU

# 绑定运行中的进程(PID=1234)到 CPU 2-5sudo taskset -cp 2-5 1234# 启动时绑定(以 Nginx 为例)sudo taskset -c 2-5 nginx -g 'daemon off;'# 绑定所有 Nginx worker 进程(通过 cgroup)echo"1-3" | sudotee /sys/fs/cgroup/cpuset/nginx/cpuset.cpusecho $(pgrep nginx) | sudotee /sys/fs/cgroup/cpuset/nginx/tasks

验证

taskset -cp $(pgrep nginx | head -1)# 输出:pid 1234's current affinity list: 2-5

内核隔离 CPU(启动时预留核心给关键进程):

# 隔离 CPU 4-7(不参与通用调度)sudo grubby --update-kernel=ALL --args="isolcpus=4-7 nohz_full=4-7 rcu_nocbs=4-7"sudo reboot

Step 4:优化内存 swappiness(减少 swap 使用)

问题:默认 swappiness=60 导致频繁 swap,影响数据库性能。

检查当前值

cat /proc/sys/vm/swappiness# 默认 60

调整为 10(推荐生产值)

# 临时设置sudo sysctl -w vm.swappiness=10# 永久生效echo"vm.swappiness = 10" | sudotee -a /etc/sysctl.confsudo sysctl -p

验证

sysctl vm.swappiness# 输出:vm.swappiness = 10# 查看 swap 使用情况free -hvmstat 1 5 | awk '{print $7,$8}'# si/so 列(swap in/out)

参数说明

  • • vm.swappiness=0:仅在 OOM 风险时使用 swap(适合 Redis/Memcached)。
  • • vm.swappiness=10:推荐生产值,平衡内存压力与性能。
  • • vm.swappiness=60:系统默认值,主动使用 swap 释放物理内存。

Step 5:启用 Huge Pages(减少 TLB Miss)

场景:数据库(Oracle/PostgreSQL)、Redis、DPDK 应用大内存场景。

计算所需页数(假设 Redis 使用 32GB 内存,页大小 2MB):

# 计算页数:32GB / 2MB = 16384 页echo $((32 * 1024 / 2))

配置 Huge Pages

# 设置 16384 个 2MB 页(共 32GB)echo 16384 | sudotee /proc/sys/vm/nr_hugepages# 永久生效echo"vm.nr_hugepages = 16384" | sudotee -a /etc/sysctl.confsudo sysctl -p

验证

cat /proc/meminfo | grep -i huge# 输出示例:# HugePages_Total:   16384# HugePages_Free:    16384# HugePages_Rsvd:        0# Hugepagesize:       2048 kB

应用配置(以 Redis 为例):

# Redis 配置文件(/etc/redis/redis.conf)# 无需特殊配置,Redis 6.0+ 自动使用 Huge Pages(需内核支持)# 验证 Redis 是否使用 Huge Pagescat /proc/$(pgrep redis-server)/smaps | grep -A 10 AnonHugePages

回滚

echo 0 | sudotee /proc/sys/vm/nr_hugepagessudo sed -i '/vm.nr_hugepages/d' /etc/sysctl.conf

Step 6:调整内核脏页参数(控制刷盘时机)

问题:默认 dirty_ratio=20% 导致大量脏页积压,刷盘时 IO 阻塞。

检查当前值

sysctl vm.dirty_ratio vm.dirty_background_ratio vm.dirty_expire_centisecs# 默认值:# vm.dirty_ratio = 20# vm.dirty_background_ratio = 10# vm.dirty_expire_centisecs = 3000(30秒)

优化配置(推荐生产值):

sudo sysctl -w vm.dirty_ratio=10sudo sysctl -w vm.dirty_background_ratio=5sudo sysctl -w vm.dirty_expire_centisecs=500sudo sysctl -w vm.dirty_writeback_centisecs=100# 永久生效cat <<EOF | sudo tee -a /etc/sysctl.confvm.dirty_ratio = 10vm.dirty_background_ratio = 5vm.dirty_expire_centisecs = 500vm.dirty_writeback_centisecs = 100EOFsudo sysctl -p

验证

# 监控脏页数量watch -n 1 "cat /proc/meminfo | grep -i dirty"# Dirty: 正在内存中的脏页# Writeback: 正在写回磁盘的页# 压力测试ddif=/dev/zero of=/tmp/testfile bs=1M count=10240 conv=fdatasync# 观察 Dirty/Writeback 变化

参数说明

  • • vm.dirty_ratio:脏页占系统内存百分比,达到后所有写操作阻塞刷盘(降低避免 IO 峰值)。
  • • vm.dirty_background_ratio:后台刷盘触发阈值(降低实现持续温和刷盘)。
  • • vm.dirty_expire_centisecs:脏页最大存活时间(50 秒→5 秒,加快刷盘)。
  • • vm.dirty_writeback_centisecs:后台刷盘线程唤醒间隔(3 秒→1 秒,更频繁刷盘)。

Step 7:优化文件描述符限制(提升并发)

问题:默认 1024 限制导致高并发场景 “too many open files” 错误。

检查当前限制

# 查看当前 shell 限制ulimit -n# 查看系统最大值cat /proc/sys/fs/file-max# 查看当前使用量cat /proc/sys/fs/file-nr# 输出:已分配 已使用 最大值

临时调整(当前 shell 生效):

ulimit -n 1048576

永久调整(所有用户):

# 1. 系统全局限制echo"fs.file-max = 2097152" | sudotee -a /etc/sysctl.confsudo sysctl -p# 2. 用户级别限制(/etc/security/limits.conf)cat <<EOF | sudo tee -a /etc/security/limits.conf*    soft    nofile    1048576*    hard    nofile    1048576root soft    nofile    1048576root hard    nofile    1048576EOF# 3. systemd 服务限制(以 Nginx 为例)sudomkdir -p /etc/systemd/system/nginx.service.dcat <<EOF | sudo tee /etc/systemd/system/nginx.service.d/limits.conf[Service]LimitNOFILE=1048576EOFsudo systemctl daemon-reloadsudo systemctl restart nginx

验证

# 重新登录后检查ulimit -n# 预期输出:1048576# 检查服务进程限制cat /proc/$(pgrep nginx | head -1)/limits | grep "open files"# 预期:Max open files 1048576

Step 8:磁盘调度器选择(SSD vs HDD)

场景:SSD/NVMe 使用 none/noop,HDD 使用 deadline/cfq。

检查当前调度器

# 查看所有磁盘调度器for disk in /sys/block/sd*/queue/scheduler; doecho"$disk$(cat $disk)"done# 输出示例:/sys/block/sda/queue/scheduler: [mq-deadline] none

设置调度器

# 临时设置(以 /dev/sda 为例,SSD 场景)echo none | sudotee /sys/block/sda/queue/scheduler# NVMe 设备(通常已默认 none)echo none | sudotee /sys/block/nvme0n1/queue/scheduler# HDD 场景设置 deadlineecho mq-deadline | sudotee /sys/block/sdb/queue/scheduler

永久生效(通过 udev 规则):

# SSD/NVMe 设置 nonecat <<EOF | sudo tee /etc/udev/rules.d/60-scheduler.rules# SSD 设置 none 调度器ACTION=="add|change", KERNEL=="sd[a-z]", ATTR{queue/rotational}=="0", ATTR{queue/scheduler}="none"# NVMe 设置 noneACTION=="add|change", KERNEL=="nvme[0-9]n[0-9]", ATTR{queue/scheduler}="none"# HDD 设置 mq-deadlineACTION=="add|change", KERNEL=="sd[a-z]", ATTR{queue/rotational}=="1", ATTR{queue/scheduler}="mq-deadline"EOFsudo udevadm control --reload-rulessudo udevadm trigger

验证

cat /sys/block/sda/queue/scheduler# SSD 预期输出:[none] mq-deadlinecat /sys/block/sdb/queue/scheduler# HDD 预期输出:none [mq-deadline]

参数说明

  • • none:无调度器(内核 5.0+ 推荐 SSD 使用,零开销)。
  • • noop/none:简单 FIFO 队列,适合 SSD/NVMe 随机访问场景。
  • • mq-deadline:多队列截止时间调度器,HDD 顺序读写优化,防止饿死。
  • • bfq:完全公平队列调度器,低延迟场景(桌面系统/虚拟机推荐)。

Step 9:文件系统挂载参数优化

场景:减少不必要的元数据更新,提升 IO 性能。

检查当前挂载参数

mount | grep "^/dev"# 示例输出:/dev/sda1 on / type ext4 (rw,relatime,data=ordered)

推荐挂载参数(/etc/fstab):

# 备份原配置sudocp /etc/fstab /etc/fstab.bak.$(date +%F)# 编辑 /etc/fstab(以 ext4 为例)sudo vi /etc/fstab# 修改为:/dev/sda1  /data  ext4  defaults,noatime,nodiratime,discard,errors=remount-ro  0  2# XFS 文件系统推荐参数/dev/sdb1  /mnt/data  xfs  defaults,noatime,nodiratime,logbufs=8,logbsize=256k,inode64  0  2

重新挂载验证

# 测试挂载语法sudo mount -o remount,noatime,nodiratime /data# 验证参数mount | grep /data# 预期输出包含:noatime,nodiratime# 性能对比测试# 未优化前syncecho 3 | sudotee /proc/sys/vm/drop_cachestimeddif=/dev/zero of=/data/testfile bs=1M count=1024 oflag=direct# 优化后(重新挂载 noatime)sudo mount -o remount,noatime /datasyncecho 3 | sudotee /proc/sys/vm/drop_cachestimeddif=/dev/zero of=/data/testfile bs=1M count=1024 oflag=direct# 预期提升 5-10% 写入性能

参数说明

  • • noatime:不更新文件访问时间戳,减少写操作(推荐所有生产环境启用)。
  • • nodiratime:不更新目录访问时间戳。
  • • discard:SSD Trim 支持,定期释放未使用块(SSD 必选)。
  • • logbufs=8:XFS 日志缓冲区数量(默认 4→8,提升并发写性能)。
  • • inode64:XFS 启用 64 位 inode 寻址(大于 1TB 分区推荐)。

Step 10:网络接收队列调整(netdev_max_backlog)

问题:高并发网络场景丢包(ifconfig 显示 RX-DRP)。

检查当前值与丢包

# 查看网卡丢包统计ifconfig eth0 | grep -i drop# 或使用 ip 命令ip -s link show eth0# 查看接收队列参数sysctl net.core.netdev_max_backlog# 默认 1000

优化配置

# 临时调整sudo sysctl -w net.core.netdev_max_backlog=50000sudo sysctl -w net.core.netdev_budget=600sudo sysctl -w net.core.netdev_budget_usecs=8000# 永久生效cat <<EOF | sudo tee -a /etc/sysctl.confnet.core.netdev_max_backlog = 50000net.core.netdev_budget = 600net.core.netdev_budget_usecs = 8000EOFsudo sysctl -p

验证

# 查看软中断队列丢包cat /proc/net/softnet_stat# 第二列非零表示丢包,第三列表示时间压缩次数# 压力测试(使用 iperf3)# 服务端iperf3 -s# 客户端iperf3 -c <server_ip> -P 10 -t 60# 测试期间监控丢包watch -n 1 "cat /proc/net/softnet_stat"

参数说明

  • • net.core.netdev_max_backlog:网卡接收队列最大长度(默认 1000→50000,高并发场景)。
  • • net.core.netdev_budget:每次软中断处理的最大包数(默认 300→600)。
  • • net.core.netdev_budget_usecs:软中断处理最大时间(微秒,默认 2000→8000)。

Step 11:TCP 窗口与缓冲区调整

场景:高带宽延迟场景(跨地域、卫星链路)优化吞吐。

检查当前值

sysctl net.ipv4.tcp_rmem net.ipv4.tcp_wmem net.ipv4.tcp_window_scaling# 默认值示例:# net.ipv4.tcp_rmem = 4096 87380 6291456# net.ipv4.tcp_wmem = 4096 16384 4194304

优化配置(10Gbps 网卡推荐):

cat <<EOF | sudo tee -a /etc/sysctl.conf# TCP 接收缓冲区:最小 最默认 最大(字节)net.ipv4.tcp_rmem = 4096 87380 134217728# TCP 发送缓冲区net.ipv4.tcp_wmem = 4096 65536 134217728# 启用窗口扩展(支持 >64KB 窗口)net.ipv4.tcp_window_scaling = 1# 接收窗口自动调整net.ipv4.tcp_moderate_rcvbuf = 1# 核心缓冲区限制net.core.rmem_max = 134217728net.core.wmem_max = 134217728net.core.rmem_default = 87380net.core.wmem_default = 65536EOFsudo sysctl -p

验证(iperf3 带宽测试):

# 优化前测试iperf3 -c <server_ip> -t 30 -i 5# 记录带宽基线# 优化后测试sudo sysctl -piperf3 -c <server_ip> -t 30 -i 5 -w 128M# 预期带宽提升 20-50%(高延迟场景)# 查看实际连接使用的窗口大小ss -itm | grep -A 5 ESTAB# 关注 cwnd/ssthresh/rtt 字段

Step 12:TCP 连接队列调整(somaxconn)

问题:高并发短连接场景 SYN 队列溢出(netstat -s | grep -i listen)。

检查当前值与溢出

sysctl net.core.somaxconn net.ipv4.tcp_max_syn_backlog# 默认:somaxconn=4096, tcp_max_syn_backlog=1024# 查看 SYN 队列溢出统计netstat -s | grep -i listen# 关注 "SYNs to LISTEN sockets dropped" 行

优化配置

cat <<EOF | sudo tee -a /etc/sysctl.conf# listen() 全连接队列最大长度net.core.somaxconn = 65535# SYN 半连接队列最大长度net.ipv4.tcp_max_syn_backlog = 65535# 启用 SYN Cookies(防 SYN Flood)net.ipv4.tcp_syncookies = 1# 放弃连接前重试次数(默认 5→3,加速释放无效连接)net.ipv4.tcp_syn_retries = 3net.ipv4.tcp_synack_retries = 3EOFsudo sysctl -p

应用层配置(以 Nginx 为例):

# /etc/nginx/nginx.confevents {worker_connections65535;useepoll;}http {# listen 指令 backlog 参数server {listen80 backlog=65535;    }}

验证

# 重启 Nginxsudo systemctl restart nginx# 压力测试(wrk)wrk -t12 -c10000 -d60s --latency http://localhost/# 测试期间监控溢出watch -n 1 "netstat -s | grep -i 'listen.*drop'"

Step 13:启用 TCP Fast Open

场景:减少 HTTP 短连接握手延迟(节省 1-RTT)。

检查当前状态

sysctl net.ipv4.tcp_fastopen# 0=禁用, 1=客户端启用, 2=服务端启用, 3=双向启用

启用 TFO

# 启用服务端和客户端echo"net.ipv4.tcp_fastopen = 3" | sudotee -a /etc/sysctl.confsudo sysctl -p# 查看 TFO 队列长度(内核 4.11+)sysctl net.ipv4.tcp_fastopen_blackhole_timeout_sec

应用层配置(Nginx):

# /etc/nginx/nginx.confserver {listen80 fastopen=256;  # TFO 队列长度}

验证

# 使用 tcpdump 抓包验证sudo tcpdump -i eth0 'tcp[tcpflags] & tcp-syn != 0' -nn -c 20# 查看 TFO 统计netstat -s | grep -i fastopen# 输出示例:# TCPFastOpenActive: 123(客户端主动 TFO 次数)# TCPFastOpenPassive: 456(服务端被动 TFO 次数)

Step 14:TIME_WAIT 状态复用与超时

问题:高并发场景大量 TIME_WAIT 占用端口(ss -ant | grep TIME_WAIT | wc -l)。

检查当前连接状态

ss -ant | awk '{print $1}' | sort | uniq -c# 统计各状态连接数netstat -n | awk '/^tcp/ {print $6}' | sort | uniq -c

优化配置

cat <<EOF | sudo tee -a /etc/sysctl.conf# 启用 TIME_WAIT 快速回收(客户端场景)net.ipv4.tcp_tw_reuse = 1# 启用时间戳(tw_reuse 前提)net.ipv4.tcp_timestamps = 1# FIN_WAIT2 超时时间(秒,默认 60→30)net.ipv4.tcp_fin_timeout = 30# 本地端口范围(增加可用端口)net.ipv4.ip_local_port_range = 10000 65535# 孤儿连接最大数量net.ipv4.tcp_max_orphans = 262144EOFsudo sysctl -p

验证

# 压力测试前后对比# 测试前统计ss -ant | grep TIME_WAIT | wc -l# 运行压力测试ab -n 100000 -c 1000 http://localhost/# 测试后统计(预期 TIME_WAIT 数量减少 50% 以上)ss -ant | grep TIME_WAIT | wc -l# 监控端口耗尽风险cat /proc/sys/net/ipv4/tcp_tw_buckets# 默认 262144,达到此值会强制回收 TIME_WAIT

注意事项

  • • tcp_tw_recycle 已在内核 4.12+ 移除(NAT 环境存在问题)。
  • • tcp_tw_reuse 仅对客户端有效,服务端无效。
  • • 需启用 tcp_timestamps=1 作为前提。

Step 15:IRQ 中断亲和性调整

场景:10Gbps+ 网卡将中断分散到多核,避免单核瓶颈。

查看网卡中断分布

# 查看网卡队列中断号cat /proc/interrupts | grep eth0# 示例输出:#  89: eth0-TxRx-0#  90: eth0-TxRx-1# 查看中断绑定的 CPUcat /proc/irq/89/smp_affinity_list# 输出:0(仅在 CPU 0 处理)

手动绑定中断到 CPU

# 绑定 IRQ 89 到 CPU 2echo 2 | sudotee /proc/irq/89/smp_affinity_list# 绑定 IRQ 90 到 CPU 3echo 3 | sudotee /proc/irq/90/smp_affinity_list

自动化脚本(绑定网卡所有队列到独立核心):

#!/bin/bash# 脚本:set-irq-affinity.shNIC="eth0"CPUS=(2 3 4 5 6 7)  # 使用 CPU 2-7 处理网卡中断# 获取网卡所有中断号IRQS=$(cat /proc/interrupts | grep $NIC | awk '{print $1}' | sed 's/://')i=0for irq in$IRQSdo    cpu=${CPUS[$((i % ${#CPUS[@]}))]}echo$cpu | sudotee /proc/irq/$irq/smp_affinity_listecho"IRQ $irq -> CPU $cpu"    ((i++))done

验证

# 运行脚本sudo bash set-irq-affinity.sh# 查看绑定结果cat /proc/interrupts | grep eth0# 观察各中断的 CPU 列分布# 实时监控中断分布watch -n 1 "cat /proc/interrupts | grep eth0"

使用 irqbalance 自动平衡(推荐生产环境):

# 安装 irqbalancesudo yum install -y irqbalance  # RHEL/CentOSsudo apt install -y irqbalance  # Ubuntu# 配置排除关键 CPU(不参与中断平衡)sudo vi /etc/sysconfig/irqbalance  # RHELsudo vi /etc/default/irqbalance   # Ubuntu# 添加:IRQBALANCE_BANNED_CPUS=00000003(禁止 CPU 0-1 参与平衡)sudo systemctl enable --now irqbalance

Step 16:禁用 CPU 空闲态(降低唤醒延迟)

场景:低延迟交易系统、高频数据采集,避免 CPU C-State 唤醒延迟(微秒级)。

检查当前 C-State

# 查看 CPU 空闲态信息cpupower idle-info# 或查看每个 CPUls /sys/devices/system/cpu/cpu0/cpuidle/state*/name

禁用深度空闲态

# 方法 1:通过内核参数(重启生效)sudo grubby --update-kernel=ALL --args="intel_idle.max_cstate=0 processor.max_cstate=1"sudo reboot# 方法 2:临时禁用(立即生效)for state in /sys/devices/system/cpu/cpu*/cpuidle/state*/disable; doecho 1 | sudotee$statedone# 方法 3:仅禁用深度 C-State(C3 及以上)for cpu in /sys/devices/system/cpu/cpu[0-9]*; dofor state in$cpu/cpuidle/state[3-9]*/disable; do        [ -f "$state" ] && echo 1 | sudotee$statedonedone

验证

# 查看禁用状态cpupower idle-info# 输出应显示深度 C-State disabled# 性能对比(延迟测试)# 使用 perf 测量上下文切换延迟perf bench sched pipe -l 100000# 禁用 C-State 后延迟降低 10-30%

注意事项

  • • 功耗显著增加(TDP 可能提升 20-40%)。
  • • 仅在极端低延迟场景使用。
  • • 使用 processor.max_cstate=1 保留最浅层 C1 状态平衡功耗。

Step 17:调整进程优先级与 nice 值

场景:关键业务进程(数据库/缓存)提升优先级,日志/备份任务降低优先级。

查看进程优先级

# 查看进程 nice 值(-20 最高,19 最低)ps -eo pid,comm,nice,pri | grep -E 'mysql|nginx'# nice: 用户空间优先级# pri: 内核调度优先级

提升关键进程优先级

# 提升 MySQL 进程 nice 值为 -10sudo renice -n -10 -p $(pgrep mysqld)# 启动时设置 nice 值nice -n -10 /usr/sbin/mysqld &# systemd 服务配置sudo systemctl edit mysql.service# 添加:[Service]Nice=-10CPUSchedulingPolicy=fifoCPUSchedulingPriority=50

降低后台任务优先级

# 降低备份脚本优先级nice -n 19 /usr/local/bin/backup.sh# ionice 限制 IO 优先级(避免备份影响在线服务)ionice -c3 nice -n 19 /usr/local/bin/backup.sh# -c3: idle 类,仅在空闲时使用 IO

验证

# 实时监控进程优先级top -p $(pgrep mysqld)# 按 'r' 键可交互式调整 nice 值# 查看 IO 优先级iotop -p $(pgrep mysqld)

参数说明

  • • nice -n -20:最高 CPU 优先级(需 root 权限)。
  • • nice -n 19:最低 CPU 优先级(后台任务推荐)。
  • • ionice -c1:实时 IO 类(关键数据库推荐)。
  • • ionice -c3:空闲 IO 类(备份/日志推荐)。

Step 18:配置 cgroup 资源限制(隔离与配额)

场景:容器化环境或多租户场景隔离资源(CPU/内存/IO)。

检查 cgroup 版本

# 查看系统使用的 cgroup 版本mount | grep cgroup# v1: 多个挂载点(cpu/memory/blkio)# v2: 单一挂载点 /sys/fs/cgroup# 检查版本stat -fc %T /sys/fs/cgroup/# 输出 cgroup2fs 表示 v2,tmpfs 表示 v1

cgroup v1 示例(限制进程 CPU 与内存):

# 创建 cgroup 组sudo cgcreate -g cpu,memory:/myapp# 设置 CPU 配额(50% CPU)echo 50000 | sudotee /sys/fs/cgroup/cpu/myapp/cpu.cfs_quota_usecho 100000 | sudotee /sys/fs/cgroup/cpu/myapp/cpu.cfs_period_us# 设置内存限制(2GB)echo 2147483648 | sudotee /sys/fs/cgroup/memory/myapp/memory.limit_in_bytes# 启动进程到 cgroupsudo cgexec -g cpu,memory:/myapp /usr/bin/myapp

cgroup v2 示例(systemd 集成):

# 编辑服务配置sudo systemctl edit myapp.service# 添加:[Service]CPUQuota=50%MemoryMax=2GIOWeight=100

验证

# 查看 cgroup 资源使用systemd-cgtop# 实时显示各 cgroup CPU/内存/IO 使用# 查看特定服务 cgroup 限制systemctl show myapp.service -p CPUQuota -p MemoryMax# 压力测试验证 CPU 限制stress-ng --cpu 4 --timeout 60s &# 观察 CPU 使用受限在配额内

Step 19:启用性能监控工具(perf/eBPF)

场景:诊断性能瓶颈(CPU 热点/内存泄漏/IO 延迟)。

安装工具

# RHEL/CentOSsudo yum install -y perf bcc-tools bpftrace# Ubuntu/Debiansudo apt install -y linux-tools-common linux-tools-$(uname -r) bpfcc-tools bpftrace

perf 常用命令

# CPU 热点分析(采样 30 秒)sudo perf record -F 99 -a -g -- sleep 30sudo perf report --stdio# 实时 CPU 热点(top 模式)sudo perf top -g# 系统调用统计sudo perf stat -e 'syscalls:sys_enter_*' -a sleep 10# 内存访问分析sudo perf mem record -a sleep 10sudo perf mem report

eBPF 工具示例

# 监控磁盘 IO 延迟分布(biolatency)sudo /usr/share/bcc/tools/biolatency -m 10# 跟踪 TCP 连接延迟(tcplife)sudo /usr/share/bcc/tools/tcplife# 跟踪文件打开(opensnoop)sudo /usr/share/bcc/tools/opensnoop -p $(pgrep nginx)# 跟踪 MySQL 查询(需调试符号)sudo /usr/share/bcc/tools/mysqld_qslower 100# 显示执行时间 >100ms 的查询

bpftrace 单行脚本

# 统计系统调用次数sudo bpftrace -e 'tracepoint:syscalls:sys_enter_* { @[probe] = count(); }'# 跟踪 TCP 重传sudo bpftrace -e 'kprobe:tcp_retransmit_skb { @[comm] = count(); }'# 跟踪内存分配sudo bpftrace -e 'tracepoint:kmem:kmalloc { @bytes = hist(args->bytes_alloc); }'

验证与持续监控

# 定期生成火焰图(需 FlameGraph 工具)git clone https://github.com/brendangregg/FlameGraph.gitsudo perf record -F 99 -a -g -- sleep 60sudo perf script | ./FlameGraph/stackcollapse-perf.pl | ./FlameGraph/flamegraph.pl > perf.svg

Step 20:定期清理缓存与日志

场景:避免缓存占用过多内存,日志撑爆磁盘。

手动清理缓存

# 清理 page cache(不影响脏页)sync && echo 1 | sudotee /proc/sys/vm/drop_caches# 清理 dentries 和 inodessync && echo 2 | sudotee /proc/sys/vm/drop_caches# 清理所有缓存(page cache + dentries + inodes)sync && echo 3 | sudotee /proc/sys/vm/drop_caches# 验证清理效果free -h# 观察 buff/cache 列变化

自动化日志清理(logrotate):

# 检查 logrotate 配置cat /etc/logrotate.conf# 自定义应用日志轮转(/etc/logrotate.d/myapp)cat <<EOF | sudo tee /etc/logrotate.d/myapp/var/log/myapp/*.log {    daily    rotate 7    compress    delaycompress    missingok    notifempty    create 0640 appuser appgroup    sharedscripts    postrotate        /usr/bin/systemctl reload myapp > /dev/null 2>&1 || true    endscript}EOF# 手动测试轮转sudo logrotate -d /etc/logrotate.d/myapp  # 调试模式sudo logrotate -f /etc/logrotate.d/myapp  # 强制执行

清理 systemd journal 日志

# 查看 journal 日志占用journalctl --disk-usage# 输出示例:Archived and active journals take up 2.5G in the file system.# 清理 7 天前的日志sudo journalctl --vacuum-time=7d# 限制日志最大大小(1GB)sudo journalctl --vacuum-size=1G# 永久配置(/etc/systemd/journald.conf)sudo vi /etc/systemd/journald.conf# 修改:SystemMaxUse=1GSystemMaxFileSize=100MMaxRetentionSec=7daysudo systemctl restart systemd-journald

定期清理脚本(cron 任务):

# 创建清理脚本cat <<'EOF' | sudotee /usr/local/bin/cleanup-cache.sh#!/bin/bash# 每周日凌晨 3 点清理缓存与旧日志# 清理缓存sync && echo 3 > /proc/sys/vm/drop_caches# 清理 journal 日志journalctl --vacuum-time=7d# 清理 /tmp 目录 30 天前文件find /tmp -type f -atime +30 -delete# 清理 core dumpfind /var/lib/systemd/coredump -type f -mtime +7 -deletelogger "System cleanup completed"EOFsudochmod +x /usr/local/bin/cleanup-cache.sh# 添加 cron 任务echo"0 3 * * 0 root /usr/local/bin/cleanup-cache.sh" | sudotee -a /etc/crontab

监控与告警(立即可用)

Prometheus 指标与 PromQL 查询

Node Exporter 关键指标

# CPU 使用率(排除 idle)100-(avgby(instance)(irate(node_cpu_seconds_total{mode="idle"}[5m]))*100)# 内存可用率100*(node_memory_MemAvailable_bytes/node_memory_MemTotal_bytes)# 磁盘 IO 利用率rate(node_disk_io_time_seconds_total[5m])*100# 网络接收丢包率rate(node_network_receive_drop_total[5m])# TCP TIME_WAIT 连接数node_netstat_Tcp_CurrEstab{state="time_wait"}# 文件描述符使用率100*(process_open_fds/process_max_fds)# 磁盘空间使用率100-((node_filesystem_avail_bytes/node_filesystem_size_bytes)*100)# 系统负载(1 分钟)node_load1/count(node_cpu_seconds_total{mode="idle"})

告警规则示例(alertmanager):

groups:-name:system_performanceinterval:30srules:-alert:HighCPUUsageexpr:100-(avgby(instance)(irate(node_cpu_seconds_total{mode="idle"}[5m]))*100)>80for:5mlabels:severity:warningannotations:summary:"High CPU usage on {{ $labels.instance }}"description:"CPU usage is {{ $value }}%"-alert:HighMemoryPressureexpr:100*(node_memory_MemAvailable_bytes/node_memory_MemTotal_bytes)<10for:3mlabels:severity:criticalannotations:summary:"High memory pressure on {{ $labels.instance }}"-alert:NetworkDropsexpr:rate(node_network_receive_drop_total[5m])>100for:2mlabels:severity:warningannotations:summary:"Network packet drops detected on {{ $labels.instance }}"-alert:DiskSpaceLowexpr:100-((node_filesystem_avail_bytes/node_filesystem_size_bytes)*100)>85for:10mlabels:severity:warning

Linux 原生监控命令

实时性能监控脚本

#!/bin/bash# 综合性能监控脚本(每 5 秒输出一次)whiletruedo    clearecho"=== System Performance Monitor ==="echo"Timestamp: $(date '+%Y-%m-%d %H:%M:%S')"echo""# CPU 使用率echo"--- CPU Usage ---"    mpstat 1 1 | tail -1# 内存使用echo"--- Memory Usage ---"    free -h | grep -E 'Mem|Swap'# 磁盘 IOecho"--- Disk IO ---"    iostat -x 1 1 | tail -n +4# 网络流量echo"--- Network Traffic ---"    sar -n DEV 1 1 | grep -E 'eth0|ens'# TCP 连接状态echo"--- TCP Connections ---"    ss -ant | awk '{print $1}' | sort | uniq -c# 系统负载echo"--- Load Average ---"uptimesleep 5done

性能阈值建议

# CPU 使用率:< 80%(峰值 < 95%)# 内存可用率:> 15%# 磁盘 IO util:< 85%# 磁盘 IO await:< 20ms(SSD),< 50ms(HDD)# 网络丢包率:< 0.01%# TCP 重传率:< 1%# 系统负载(Load Average):< CPU 核心数 * 0.7# 文件描述符使用率:< 80%

性能与容量(可复制)

基准测试命令

CPU 性能测试

# sysbench CPU 测试(素数计算)sysbench cpu --cpu-max-prime=20000 --threads=4 run# 目标指标:# events per second: >10000(4C)# latency avg: <1.0ms

内存性能测试

# sysbench 内存测试sysbench memory --memory-block-size=1K --memory-total-size=100G --threads=4 run# 目标指标:# throughput: >10GB/s(DDR4)

磁盘 IO 测试

# fio 随机读测试fio --name=randread --ioengine=libaio --iodepth=32 --rw=randread --bs=4k --direct=1 --size=10G --numjobs=4 --runtime=60 --group_reporting# fio 随机写测试fio --name=randwrite --ioengine=libaio --iodepth=32 --rw=randwrite --bs=4k --direct=1 --size=10G --numjobs=4 --runtime=60 --group_reporting# 目标指标(SSD):# IOPS: >50000(随机读),>20000(随机写)# Latency: <1ms(P99)

网络性能测试

# iperf3 带宽测试# 服务端iperf3 -s# 客户端iperf3 -c <server_ip> -P 10 -t 60# 目标指标(10Gbps 网卡):# Bandwidth: >9.5 Gbps# Retransmits: <0.1%

HTTP 性能测试

# wrk 压测wrk -t12 -c400 -d60s --latency http://localhost/# 目标指标(Nginx 静态文件):# Requests/sec: >50000(16C)# Latency avg: <10ms# Latency P99: <50ms

调优参数总结表

场景
关键参数
推荐值
影响指标
高并发 Web
somaxconn
65535
QPS +30%
数据库
swappiness
1-10
延迟 P99 -50%
缓存服务
Huge Pages
按内存计算
TLB Miss -80%
大文件传输
tcp_wmem
134217728
带宽 +40%
短连接场景
tcp_tw_reuse
1
端口复用 +200%
低延迟服务
max_cstate
0
延迟 -20%
SSD 存储
scheduler
none
IOPS +15%
高并发网络
netdev_max_backlog
50000
丢包 -90%

安全与合规

最小权限配置

限制 root 登录

# 禁用 root SSH 登录sudo vi /etc/ssh/sshd_config# 修改:PermitRootLogin nosudo systemctl restart sshd

sudo 权限审计

# 记录所有 sudo 命令到日志sudo vi /etc/sudoers.d/audit# 添加:Defaults logfile="/var/log/sudo.log"Defaults log_input, log_outputDefaults!/usr/bin/sudoreplay !log_output

系统调用审计(auditd):

# 监控网络参数修改sudo auditctl -w /etc/sysctl.conf -p wa -k sysctl_changessudo auditctl -w /etc/sysctl.d/ -p wa -k sysctl_changes# 监控服务配置修改sudo auditctl -w /etc/systemd/system/ -p wa -k systemd_changes# 查看审计日志sudo ausearch -k sysctl_changes -i

网络安全配置

防火墙规则(firewalld):

# 仅允许必需端口(SSH/HTTP/HTTPS)sudo firewall-cmd --permanent --add-service=sshsudo firewall-cmd --permanent --add-service=httpsudo firewall-cmd --permanent --add-service=httpssudo firewall-cmd --reload# 限制来源 IP(仅允许运维网段访问 SSH)sudo firewall-cmd --permanent --zone=public --add-rich-rule='rule family="ipv4" source address="10.0.0.0/8" service name="ssh" accept'

SYN Flood 防护(已在 Step 12 启用 tcp_syncookies):

# 验证启用状态sysctl net.ipv4.tcp_syncookies# 输出:net.ipv4.tcp_syncookies = 1

合规核对点

  • • [ ] 系统日志保留 90 天以上(journald + logrotate)
  • • [ ] sudo 操作全部审计到独立日志
  • • [ ] 禁用 root 直接登录(SSH 密钥 + sudo)
  • • [ ] 网络参数变更记录到 auditd
  • • [ ] 定期备份 /etc/sysctl.conf 与服务配置
  • • [ ] 关键服务启用 SELinux/AppArmor(强制访问控制)

常见故障与排错

症状
诊断命令
可能根因
快速修复
永久修复
网卡丢包
ip -s link show
RX-DRP 非零
netdev_max_backlog 过小
sysctl -w net.core.netdev_max_backlog=50000
端口耗尽
ss -ant | grep TIME_WAIT | wc -l
TIME_WAIT 大量积压
sysctl -w net.ipv4.tcp_tw_reuse=1
启用 tw_reuse + 扩展端口范围
磁盘 IO 高
iostat -x 1
util 接近 100%
HDD 使用 mq-deadline
使用 SSD + none 调度器
内存不足但 cache 高
free -h
page cache 占用过多
echo 3 > /proc/sys/vm/drop_caches
调整 vm.dirty_ratio 降低缓存积压
CPU 高但 top 显示正常
perf top
内核态 CPU 占用高
检查 /proc/interrupts 中断风暴
调整 IRQ 亲和性分散中断
SYN 队列溢出
netstat -s | grep -i listen
somaxconn 过小
sysctl -w net.core.somaxconn=65535
同步增加应用 listen backlog
进程频繁 swap
vmstat 1
si/so 列频繁非零
sysctl -w vm.swappiness=10
增加内存或启用 Huge Pages
延迟抖动
perf stat -p <pid>
透明大页整理
禁用 THP(Step 1)
手动配置 Huge Pages
网络重传率高
netstat -s | grep retrans
TCP 缓冲区过小
增加 tcp_rmem/tcp_wmem
调整窗口大小并启用 window_scaling
文件打开失败
lsof | wc -l
文件描述符耗尽
ulimit -n 1048576
修改 /etc/security/limits.conf

变更与回滚剧本

维护窗口规划

变更前检查清单

#!/bin/bash# 变更前健康检查脚本echo"=== Pre-Change Health Check ==="# 1. 备份当前配置sudocp /etc/sysctl.conf /etc/sysctl.conf.bak.$(date +%F-%H%M)# 2. 记录当前性能基线echo"CPU:" && mpstat 1 1 | tail -1echo"Memory:" && free -hecho"Disk:" && iostat -x 1 1 | tail -n +4echo"Network:" && ss -s# 3. 验证监控正常curl -s http://localhost:9090/-/healthy || echo"Prometheus 异常"# 4. 检查磁盘空间df -h | awk '$5+0 > 85 {print "WARNING: " $0}'echo"=== 检查完成,可以执行变更 ==="

灰度策略

分批调整示例(以 swappiness 为例):

# 第 1 批:1 台测试服务器ssh server1 "sudo sysctl -w vm.swappiness=10"# 观察 30 分钟,监控内存与 swap 使用# 第 2 批:10% 生产节点for host in server{2..5}; do    ssh $host"sudo sysctl -w vm.swappiness=10"done# 观察 2 小时# 第 3 批:全量推送ansible all -m sysctl -a "name=vm.swappiness value=10 state=present reload=yes"

健康检查脚本

变更后验证

#!/bin/bash# 变更后验证脚本echo"=== Post-Change Validation ==="# 验证参数生效sysctl -a | grep -E 'swappiness|somaxconn|tcp_rmem' > /tmp/sysctl-current.txtdiff /tmp/sysctl-baseline.txt /tmp/sysctl-current.txt# 验证服务正常systemctl is-active nginx mysql redis || echo"服务异常"# 验证连接正常curl -I http://localhost/ || echo"HTTP 异常"mysql -u root -p -e "SELECT 1;" || echo"MySQL 异常"# 验证性能指标wrk -t4 -c100 -d10s http://localhost/ > /tmp/perf-after.txtecho"对比变更前后 QPS 差异"echo"=== 验证完成 ==="

回滚条件与命令

触发回滚条件

  • • 服务不可用时间 > 5 分钟
  • • QPS 下降 > 30%
  • • 错误率 > 1%
  • • P99 延迟 > 基线 2 倍

快速回滚

#!/bin/bash# 回滚脚本echo"=== Rollback Started ==="# 1. 恢复配置文件sudocp /etc/sysctl.conf.bak.$(date +%F)* /etc/sysctl.conf# 2. 重新加载参数sudo sysctl -p# 3. 重启受影响服务(如有必要)sudo systemctl restart nginx# 4. 验证回滚sysctl -a | grep -E 'swappiness|somaxconn'echo"=== Rollback Completed ==="

最佳实践(10 条决策性要点)

  1. 1. 调优前必做性能基线测试:使用 sysbench/fio/wrk 记录 CPU/IO/网络基准指标,变更后对比验证收益。
  2. 2. 优先调整内核参数而非应用重写:80% 性能问题可通过 sysctl 解决,避免代码改动风险。
  3. 3. SSD 强制使用 none 调度器 + noatime 挂载:IOPS 提升 15%,延迟降低 20%。
  4. 4. 数据库服务器 swappiness=1,禁用 THP:避免延迟抖动(P99 可降低 50% 以上)。
  5. 5. 高并发场景三板斧:somaxconn=65535 + tcp_tw_reuse=1 + 文件描述符=1048576。
  6. 6. 网卡队列数等于 CPU 核心数:多队列网卡通过 ethtool -L 设置队列,配合 IRQ 亲和性绑定。
  7. 7. 使用 tuned 工具快速应用预设方案tuned-adm profile throughput-performance(吞吐优先)或 latency-performance(延迟优先)。
  8. 8. 监控四大黄金指标:CPU util、内存可用率、磁盘 await、网络丢包率,阈值告警自动化。
  9. 9. 变更必须可回滚:所有 sysctl 参数变更前备份配置,systemd 服务修改使用 systemctl edit 保留原文件。
  10. 10. 定期压测验证容量:每季度执行一次全链路压测,验证当前配置是否满足 2 倍峰值流量。

附录:完整配置样例

sysctl.conf 生产模板

# /etc/sysctl.conf - Linux Performance Tuning Profile# 测试于 2025-10,RHEL 8/Ubuntu 22.04,内核 4.18+/5.15+# === 内存管理 ===vm.swappiness = 10vm.dirty_ratio = 10vm.dirty_background_ratio = 5vm.dirty_expire_centisecs = 500vm.dirty_writeback_centisecs = 100vm.overcommit_memory = 1vm.nr_hugepages = 16384  # 根据实际内存调整# === 文件系统 ===fs.file-max = 2097152fs.inotify.max_user_watches = 524288fs.aio-max-nr = 1048576# === 网络核心参数 ===net.core.somaxconn = 65535net.core.netdev_max_backlog = 50000net.core.rmem_max = 134217728net.core.wmem_max = 134217728net.core.rmem_default = 87380net.core.wmem_default = 65536net.core.netdev_budget = 600net.core.netdev_budget_usecs = 8000# === TCP 参数 ===net.ipv4.tcp_rmem = 4096 87380 134217728net.ipv4.tcp_wmem = 4096 65536 134217728net.ipv4.tcp_window_scaling = 1net.ipv4.tcp_moderate_rcvbuf = 1net.ipv4.tcp_max_syn_backlog = 65535net.ipv4.tcp_syncookies = 1net.ipv4.tcp_tw_reuse = 1net.ipv4.tcp_timestamps = 1net.ipv4.tcp_fin_timeout = 30net.ipv4.tcp_keepalive_time = 600net.ipv4.tcp_keepalive_intvl = 30net.ipv4.tcp_keepalive_probes = 3net.ipv4.tcp_max_orphans = 262144net.ipv4.tcp_fastopen = 3net.ipv4.tcp_syn_retries = 3net.ipv4.tcp_synack_retries = 3net.ipv4.ip_local_port_range = 10000 65535# === 连接跟踪 ===net.netfilter.nf_conntrack_max = 1048576net.netfilter.nf_conntrack_tcp_timeout_established = 7200# === 安全参数 ===net.ipv4.conf.all.rp_filter = 1net.ipv4.conf.default.rp_filter = 1net.ipv4.icmp_echo_ignore_broadcasts = 1net.ipv4.icmp_ignore_bogus_error_responses = 1net.ipv4.conf.all.accept_source_route = 0net.ipv4.conf.default.accept_source_route = 0net.ipv4.conf.all.send_redirects = 0net.ipv4.conf.default.send_redirects = 0# === 内核参数 ===kernel.pid_max = 4194304kernel.threads-max = 4194304kernel.sysrq = 1kernel.core_uses_pid = 1

systemd 服务优化模板

# /etc/systemd/system/myapp.service.d/performance.conf[Service]# CPU 优先级Nice=-10CPUSchedulingPolicy=otherCPUSchedulingPriority=0# CPU 配额(可选,限制为 4 核)# CPUQuota=400%# 内存限制MemoryMax=16GMemoryHigh=14G# IO 优先级IOSchedulingClass=realtimeIOSchedulingPriority=0# 文件描述符LimitNOFILE=1048576LimitNPROC=65535# 核心转储LimitCORE=infinity# 日志限流LogRateLimitIntervalSec=30sLogRateLimitBurst=1000# OOM 优先级(负数不易被 kill)OOMScoreAdjust=-500

Nginx 性能配置片段

# /etc/nginx/nginx.confuser nginx;worker_processes auto;  # 等于 CPU 核心数worker_cpu_affinity auto;worker_rlimit_nofile1048576;events {useepoll;worker_connections65535;multi_accepton;}http {# TCP 优化sendfileon;tcp_nopushon;tcp_nodelayon;# 连接超时keepalive_timeout65;keepalive_requests1000;# 缓冲区client_body_buffer_size128k;client_max_body_size10m;client_header_buffer_size1k;large_client_header_buffers48k;# 文件缓存open_file_cache max=10000 inactive=30s;open_file_cache_valid60s;open_file_cache_min_uses2;open_file_cache_errorson;server {listen80 reuseport backlog=65535 fastopen=256;location / {# 后端连接池proxy_http_version1.1;proxy_set_header Connection "";# 超时设置proxy_connect_timeout5s;proxy_send_timeout10s;proxy_read_timeout10s;proxy_pass http://backend;        }    }upstream backend {        least_conn;keepalive1024;keepalive_requests10000;keepalive_timeout60s;server10.0.0.1:8080 max_fails=3 fail_timeout=30s;server10.0.0.2:8080 max_fails=3 fail_timeout=30s;    }}

自动化部署 Ansible Playbook

# deploy-tuning.yml----name:LinuxPerformanceTuningDeploymenthosts:allbecome:yestasks:-name:备份当前sysctl配置copy:src:/etc/sysctl.confdest:"/etc/sysctl.conf.bak.{{ ansible_date_time.iso8601_basic_short }}"remote_src:yes-name:部署优化后的sysctl配置copy:src:files/sysctl.confdest:/etc/sysctl.confowner:rootgroup:rootmode:0644notify:reloadsysctl-name:配置文件描述符限制blockinfile:path:/etc/security/limits.confblock:|          * soft nofile 1048576          * hard nofile 1048576          root soft nofile 1048576          root hard nofile 1048576-name:禁用透明大页服务copy:dest:/etc/systemd/system/disable-thp.servicecontent:|          [Unit]          Description=Disable Transparent Huge Pages          DefaultDependencies=no          After=sysinit.target          [Service]          Type=oneshot          ExecStart=/bin/sh -c 'echo never > /sys/kernel/mm/transparent_hugepage/enabled'          ExecStart=/bin/sh -c 'echo never > /sys/kernel/mm/transparent_hugepage/defrag'          [Install]          WantedBy=basic.targetnotify:enabledisable-thp-name:设置CPU频率策略为performancecommand:cpupowerfrequency-set-gperformancewhen:ansible_processor_count>4-name:验证配置生效command:sysctl-aregister:sysctl_outputfailed_when:"'vm.swappiness = 10' not in sysctl_output.stdout"handlers:-name:reloadsysctlcommand:sysctl-p-name:enabledisable-thpsystemd:name:disable-thpenabled:yesstate:starteddaemon_reload:yes

覆盖系统:RHEL 7/8/9、CentOS 7/8、Ubuntu 20.04/22.04测试环境:测试于 2025-10,内核 4.18+/5.15+,生产验证 16C32G 典型配置

快速验证清单

# 一键检查优化效果sysctl vm.swappiness net.core.somaxconn net.ipv4.tcp_tw_reusecat /sys/kernel/mm/transparent_hugepage/enabledulimit -ncat /sys/block/sda/queue/schedulerss -sfree -h

WeChat group

为了方便大家更好的交流运维等相关技术问题,创建了微信交流群,需要加群的小伙伴们可以扫一扫下面的二维码加我为好友拉您进群(备注:加群)。

代码仓库网址
Githubhttps://github.com/raymond999999
Giteehttps://gitee.com/raymond9

Blog

博客网址
CSDN
https://blog.csdn.net/qq_25599925
稀土掘金https://juejin.cn/user/4262187909781751
知识星球https://wx.zsxq.com/group/15555885545422
阿里云社区https://developer.aliyun.com/profile/snzh3xpxaf6sg
腾讯云社区https://cloud.tencent.com/developer/user/11823619
华为云社区https://developer.huaweicloud.com/usercenter/mycommunity/dynamics

访问博客网站,查看更多优质原创内容。

最新文章

随机文章

基本 文件 流程 错误 SQL 调试
  1. 请求信息 : 2026-03-27 13:00:00 HTTP/2.0 GET : https://f.mffb.com.cn/a/479651.html
  2. 运行时间 : 0.183811s [ 吞吐率:5.44req/s ] 内存消耗:5,084.63kb 文件加载:140
  3. 缓存信息 : 0 reads,0 writes
  4. 会话信息 : SESSION_ID=fb370122e69f3b865517fbaaa829cb30
  1. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/public/index.php ( 0.79 KB )
  2. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/autoload.php ( 0.17 KB )
  3. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/autoload_real.php ( 2.49 KB )
  4. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/platform_check.php ( 0.90 KB )
  5. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/ClassLoader.php ( 14.03 KB )
  6. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/autoload_static.php ( 4.90 KB )
  7. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/helper.php ( 8.34 KB )
  8. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-validate/src/helper.php ( 2.19 KB )
  9. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/helper.php ( 1.47 KB )
  10. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/stubs/load_stubs.php ( 0.16 KB )
  11. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Exception.php ( 1.69 KB )
  12. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-container/src/Facade.php ( 2.71 KB )
  13. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/deprecation-contracts/function.php ( 0.99 KB )
  14. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/polyfill-mbstring/bootstrap.php ( 8.26 KB )
  15. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/polyfill-mbstring/bootstrap80.php ( 9.78 KB )
  16. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/var-dumper/Resources/functions/dump.php ( 1.49 KB )
  17. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-dumper/src/helper.php ( 0.18 KB )
  18. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/var-dumper/VarDumper.php ( 4.30 KB )
  19. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/App.php ( 15.30 KB )
  20. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-container/src/Container.php ( 15.76 KB )
  21. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/container/src/ContainerInterface.php ( 1.02 KB )
  22. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/provider.php ( 0.19 KB )
  23. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Http.php ( 6.04 KB )
  24. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/helper/Str.php ( 7.29 KB )
  25. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Env.php ( 4.68 KB )
  26. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/common.php ( 0.03 KB )
  27. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/helper.php ( 18.78 KB )
  28. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Config.php ( 5.54 KB )
  29. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/app.php ( 0.95 KB )
  30. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/cache.php ( 0.78 KB )
  31. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/console.php ( 0.23 KB )
  32. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/cookie.php ( 0.56 KB )
  33. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/database.php ( 2.48 KB )
  34. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/facade/Env.php ( 1.67 KB )
  35. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/filesystem.php ( 0.61 KB )
  36. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/lang.php ( 0.91 KB )
  37. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/log.php ( 1.35 KB )
  38. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/middleware.php ( 0.19 KB )
  39. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/route.php ( 1.89 KB )
  40. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/session.php ( 0.57 KB )
  41. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/trace.php ( 0.34 KB )
  42. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/view.php ( 0.82 KB )
  43. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/event.php ( 0.25 KB )
  44. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Event.php ( 7.67 KB )
  45. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/service.php ( 0.13 KB )
  46. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/AppService.php ( 0.26 KB )
  47. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Service.php ( 1.64 KB )
  48. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Lang.php ( 7.35 KB )
  49. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/lang/zh-cn.php ( 13.70 KB )
  50. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/initializer/Error.php ( 3.31 KB )
  51. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/initializer/RegisterService.php ( 1.33 KB )
  52. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/services.php ( 0.14 KB )
  53. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/service/PaginatorService.php ( 1.52 KB )
  54. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/service/ValidateService.php ( 0.99 KB )
  55. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/service/ModelService.php ( 2.04 KB )
  56. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-trace/src/Service.php ( 0.77 KB )
  57. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Middleware.php ( 6.72 KB )
  58. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/initializer/BootService.php ( 0.77 KB )
  59. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/Paginator.php ( 11.86 KB )
  60. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-validate/src/Validate.php ( 63.20 KB )
  61. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/Model.php ( 23.55 KB )
  62. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/Attribute.php ( 21.05 KB )
  63. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/AutoWriteData.php ( 4.21 KB )
  64. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/Conversion.php ( 6.44 KB )
  65. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/DbConnect.php ( 5.16 KB )
  66. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/ModelEvent.php ( 2.33 KB )
  67. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/RelationShip.php ( 28.29 KB )
  68. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/contract/Arrayable.php ( 0.09 KB )
  69. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/contract/Jsonable.php ( 0.13 KB )
  70. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/contract/Modelable.php ( 0.09 KB )
  71. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Db.php ( 2.88 KB )
  72. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/DbManager.php ( 8.52 KB )
  73. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Log.php ( 6.28 KB )
  74. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Manager.php ( 3.92 KB )
  75. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/log/src/LoggerTrait.php ( 2.69 KB )
  76. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/log/src/LoggerInterface.php ( 2.71 KB )
  77. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Cache.php ( 4.92 KB )
  78. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/simple-cache/src/CacheInterface.php ( 4.71 KB )
  79. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/helper/Arr.php ( 16.63 KB )
  80. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/cache/driver/File.php ( 7.84 KB )
  81. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/cache/Driver.php ( 9.03 KB )
  82. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/CacheHandlerInterface.php ( 1.99 KB )
  83. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/Request.php ( 0.09 KB )
  84. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Request.php ( 55.78 KB )
  85. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/middleware.php ( 0.25 KB )
  86. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Pipeline.php ( 2.61 KB )
  87. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-trace/src/TraceDebug.php ( 3.40 KB )
  88. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/middleware/SessionInit.php ( 1.94 KB )
  89. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Session.php ( 1.80 KB )
  90. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/session/driver/File.php ( 6.27 KB )
  91. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/SessionHandlerInterface.php ( 0.87 KB )
  92. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/session/Store.php ( 7.12 KB )
  93. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Route.php ( 23.73 KB )
  94. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/RuleName.php ( 5.75 KB )
  95. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/Domain.php ( 2.53 KB )
  96. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/RuleGroup.php ( 22.43 KB )
  97. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/Rule.php ( 26.95 KB )
  98. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/RuleItem.php ( 9.78 KB )
  99. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/route/app.php ( 1.72 KB )
  100. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/facade/Route.php ( 4.70 KB )
  101. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/dispatch/Controller.php ( 4.74 KB )
  102. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/Dispatch.php ( 10.44 KB )
  103. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/controller/Index.php ( 4.81 KB )
  104. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/BaseController.php ( 2.05 KB )
  105. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/facade/Db.php ( 0.93 KB )
  106. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/connector/Mysql.php ( 5.44 KB )
  107. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/PDOConnection.php ( 52.47 KB )
  108. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/Connection.php ( 8.39 KB )
  109. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/ConnectionInterface.php ( 4.57 KB )
  110. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/builder/Mysql.php ( 16.58 KB )
  111. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/Builder.php ( 24.06 KB )
  112. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/BaseBuilder.php ( 27.50 KB )
  113. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/Query.php ( 15.71 KB )
  114. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/BaseQuery.php ( 45.13 KB )
  115. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/TimeFieldQuery.php ( 7.43 KB )
  116. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/AggregateQuery.php ( 3.26 KB )
  117. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/ModelRelationQuery.php ( 20.07 KB )
  118. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/ParamsBind.php ( 3.66 KB )
  119. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/ResultOperation.php ( 7.01 KB )
  120. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/WhereQuery.php ( 19.37 KB )
  121. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/JoinAndViewQuery.php ( 7.11 KB )
  122. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/TableFieldInfo.php ( 2.63 KB )
  123. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/Transaction.php ( 2.77 KB )
  124. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/log/driver/File.php ( 5.96 KB )
  125. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/LogHandlerInterface.php ( 0.86 KB )
  126. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/log/Channel.php ( 3.89 KB )
  127. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/event/LogRecord.php ( 1.02 KB )
  128. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/Collection.php ( 16.47 KB )
  129. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/facade/View.php ( 1.70 KB )
  130. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/View.php ( 4.39 KB )
  131. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Response.php ( 8.81 KB )
  132. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/response/View.php ( 3.29 KB )
  133. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Cookie.php ( 6.06 KB )
  134. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-view/src/Think.php ( 8.38 KB )
  135. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/TemplateHandlerInterface.php ( 1.60 KB )
  136. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-template/src/Template.php ( 46.61 KB )
  137. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-template/src/template/driver/File.php ( 2.41 KB )
  138. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-template/src/template/contract/DriverInterface.php ( 0.86 KB )
  139. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/runtime/temp/067d451b9a0c665040f3f1bdd3293d68.php ( 11.98 KB )
  140. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-trace/src/Html.php ( 4.42 KB )
  1. CONNECT:[ UseTime:0.000367s ] mysql:host=127.0.0.1;port=3306;dbname=f_mffb;charset=utf8mb4
  2. SHOW FULL COLUMNS FROM `fenlei` [ RunTime:0.000525s ]
  3. SELECT * FROM `fenlei` WHERE `fid` = 0 [ RunTime:0.007243s ]
  4. SELECT * FROM `fenlei` WHERE `fid` = 63 [ RunTime:0.000284s ]
  5. SHOW FULL COLUMNS FROM `set` [ RunTime:0.000546s ]
  6. SELECT * FROM `set` [ RunTime:0.000436s ]
  7. SHOW FULL COLUMNS FROM `article` [ RunTime:0.000576s ]
  8. SELECT * FROM `article` WHERE `id` = 479651 LIMIT 1 [ RunTime:0.010047s ]
  9. UPDATE `article` SET `lasttime` = 1774587600 WHERE `id` = 479651 [ RunTime:0.004886s ]
  10. SELECT * FROM `fenlei` WHERE `id` = 67 LIMIT 1 [ RunTime:0.000282s ]
  11. SELECT * FROM `article` WHERE `id` < 479651 ORDER BY `id` DESC LIMIT 1 [ RunTime:0.007226s ]
  12. SELECT * FROM `article` WHERE `id` > 479651 ORDER BY `id` ASC LIMIT 1 [ RunTime:0.007940s ]
  13. SELECT * FROM `article` WHERE `id` < 479651 ORDER BY `id` DESC LIMIT 10 [ RunTime:0.022206s ]
  14. SELECT * FROM `article` WHERE `id` < 479651 ORDER BY `id` DESC LIMIT 10,10 [ RunTime:0.017089s ]
  15. SELECT * FROM `article` WHERE `id` < 479651 ORDER BY `id` DESC LIMIT 20,10 [ RunTime:0.024663s ]
0.185378s