当前位置:首页>Linux>Linux内核内存管理深度专题

Linux内核内存管理深度专题

  • 2026-03-24 22:36:30
Linux内核内存管理深度专题

概述

Linux内存管理是内核最复杂的子系统之一,涵盖从物理内存的伙伴系统到用户空间虚拟内存的完整体系。本专题深入剖析各层次内存分配机制、页表结构、内存回收和NUMA架构。


一、物理内存模型

1.1 内存区域(Zone)

/*
 * Linux将物理内存划分为多个Zone:
 *
 * ZONE_DMA     (0 - 16MB)   - ISA DMA设备使用(x86历史遗留)
 * ZONE_DMA32   (0 - 4GB)    - 32位DMA设备使用
 * ZONE_NORMAL  (16MB - ...)  - 内核直接映射区域
 * ZONE_HIGHMEM (>896MB,32位) - 32位内核无法直接映射的高端内存
 * ZONE_MOVABLE              - 可迁移页面(支持内存热插拔)
 * ZONE_DEVICE               - 设备内存(pmem等)
 */

# 查看内存Zone信息
cat /proc/zoneinfo | head -60

# 查看Zone中空闲页面分布
cat /proc/buddyinfo
# Node 0, zone   Normal  312  156  78  45  23  12  6  3  1  1  0
# 每列代表 2^0, 2^1, ..., 2^10 页的空闲块数量

# 查看内存总体信息
cat /proc/meminfo

# 查看NUMA节点信息
numactl --hardware
cat /sys/devices/system/node/node*/meminfo

1.2 页描述符(struct page)

// page_info.c - 理解struct page
#include<linux/module.h>
#include<linux/mm.h>
#include<linux/mmzone.h>
#include<linux/page-flags.h>

MODULE_LICENSE("GPL");

staticvoidanalyze_page(struct page *page)
{
    pr_info("=== Page Analysis ===\n");
    pr_info("PFN: %lu\n", page_to_pfn(page));
    pr_info("Physical addr: 0x%llx\n", (u64)page_to_phys(page));
    pr_info("Virtual addr: %p\n", page_address(page));
    pr_info("Page flags: 0x%lx\n", page->flags);

/* 检查页面标志 */
    pr_info("PageLocked:    %d\n", PageLocked(page));
    pr_info("PageDirty:     %d\n", PageDirty(page));
    pr_info("PageUptodate:  %d\n", PageUptodate(page));
    pr_info("PageSlab:      %d\n", PageSlab(page));
    pr_info("PageCompound:  %d\n", PageCompound(page));
    pr_info("PageAnon:      %d\n", PageAnon(page));

/* Zone信息 */
    pr_info("Zone: %s\n", page_zone(page)->name);
    pr_info("NUMA node: %d\n", page_to_nid(page));

/* 引用计数 */
    pr_info("_refcount: %d\n", page_ref_count(page));
    pr_info("_mapcount: %d\n", page_mapcount(page));
}

staticint __init page_info_init(void)
{
structpage *page;
void *vaddr;

/* 分配一个页 */
    page = alloc_page(GFP_KERNEL);
if (!page) {
        pr_err("Failed to allocate page\n");
return -ENOMEM;
    }

    vaddr = page_address(page);
    analyze_page(page);

/* 写入数据 */
memset(vaddr, 0xAB, PAGE_SIZE);
    pr_info("Page content[0]: 0x%02x\n", *(unsignedchar *)vaddr);

    __free_page(page);
return0;
}

staticvoid __exit page_info_exit(void) {}

module_init(page_info_init);
module_exit(page_info_exit);

二、伙伴系统(Buddy System)

2.1 伙伴系统原理

内存被划分为2^order个连续页面的块(order从0到MAX_ORDER-1,通常11)

分配2^2=4页的请求:
Order: 0  1  2  3  4
Free:  2  1  0  1  2

步骤:
1. 查找order=2的空闲块,找到直接返回
2. 如果没有,查找order=3的块,分裂为两个order=2,返回一个

释放时:
1. 检查伙伴(相邻的同大小块)是否空闲
2. 如果是,合并成更大的块
3. 重复直到无法合并

2.2 伙伴系统操作

// buddy_demo.c - 伙伴系统使用
#include<linux/module.h>
#include<linux/mm.h>
#include<linux/gfp.h>

MODULE_LICENSE("GPL");

staticvoidbuddy_alloc_demo(void)
{
structpage *pages[5];
int orders[] = {01234};  /* 2^order 页 */
int i;

    pr_info("=== Buddy System Demo ===\n");

for (i = 0; i < ARRAY_SIZE(orders); i++) {
int order = orders[i];
        pages[i] = alloc_pages(GFP_KERNEL, order);

if (pages[i]) {
            pr_info("order=%d: allocated %lu pages at PFN %lu, phys=0x%llx\n",
                    order,
                    (unsignedlong)(1 << order),
                    page_to_pfn(pages[i]),
                    (u64)page_to_phys(pages[i]));
        } else {
            pr_err("order=%d: allocation failed!\n", order);
        }
    }

/* 释放所有页 */
for (i = 0; i < ARRAY_SIZE(orders); i++) {
if (pages[i])
            __free_pages(pages[i], orders[i]);
    }

/* 显示伙伴系统状态 */
/* 在用户空间用: cat /proc/buddyinfo */
}

staticvoidgfp_flags_demo(void)
{
structpage *page;

    pr_info("=== GFP Flags Demo ===\n");

/* GFP_KERNEL: 可睡眠,用于进程上下文 */
    page = alloc_page(GFP_KERNEL);
if (page) {
        pr_info("GFP_KERNEL: OK\n");
        __free_page(page);
    }

/* GFP_ATOMIC: 不可睡眠,用于中断上下文 */
    page = alloc_page(GFP_ATOMIC);
if (page) {
        pr_info("GFP_ATOMIC: OK\n");
        __free_page(page);
    }

/* GFP_DMA: 分配DMA区域内存 */
    page = alloc_page(GFP_DMA);
if (page) {
        pr_info("GFP_DMA: OK, phys=0x%llx\n", (u64)page_to_phys(page));
        __free_page(page);
    }

/* GFP_HIGHUSER_MOVABLE: 用户空间可迁移页 */
    page = alloc_page(GFP_HIGHUSER_MOVABLE);
if (page) {
        pr_info("GFP_HIGHUSER_MOVABLE: OK\n");
        __free_page(page);
    }
}

staticint __init buddy_demo_init(void)
{
    buddy_alloc_demo();
    gfp_flags_demo();
return0;
}

staticvoid __exit buddy_demo_exit(void) {}

module_init(buddy_demo_init);
module_exit(buddy_demo_exit);

三、SLUB分配器

3.1 Slab分配器演进

SLAB  → 最早(1994),复杂,有bug
SLOB  → 嵌入式系统,极简,碎片多
SLUB  → 现代默认(2007),简化设计,更好性能

3.2 SLUB工作原理

/*
 * SLUB核心概念:
 *
 * kmem_cache  - 对象缓存(每种固定大小对象一个)
 * slab        - 一个或多个连续页组成的对象池
 * cpu_slab    - 每CPU的本地缓存(减少锁竞争)
 * node        - NUMA节点的部分满slab列表
 *
 * 分配流程:
 * 1. 检查per-CPU缓存(无锁)
 * 2. 从本CPU的partial slab获取
 * 3. 从节点的partial slab获取
 * 4. 向伙伴系统申请新页
 */

// slub_demo.c - SLUB分配器使用
#include<linux/module.h>
#include<linux/slab.h>

MODULE_LICENSE("GPL");

/* 自定义对象 */
structmy_object {
int id;
char data[60];
structlist_headlist;
};

staticstructkmem_cache *my_cache;

staticvoidkmem_cache_demo(void)
{
structmy_object *objs[10];
int i;

    pr_info("=== kmem_cache Demo ===\n");

/* 创建专用缓存 */
    my_cache = kmem_cache_create(
"my_object_cache",          /* 名称 */
sizeof(struct my_object),   /* 对象大小 */
0,                          /* 对齐(0=默认)*/
        SLAB_HWCACHE_ALIGN |        /* Cache line对齐 */
        SLAB_POISON        |        /* 内存污染检测 */
        SLAB_RED_ZONE,              /* 缓冲区溢出检测 */
NULL/* 构造函数 */
    );

if (!my_cache) {
        pr_err("Failed to create kmem_cache\n");
return;
    }

    pr_info("Cache created: object_size=%u, size=%u\n",
            my_cache->object_size, my_cache->size);

/* 分配对象 */
for (i = 0; i < ARRAY_SIZE(objs); i++) {
        objs[i] = kmem_cache_alloc(my_cache, GFP_KERNEL);
if (objs[i]) {
            objs[i]->id = i;
snprintf(objs[i]->data, sizeof(objs[i]->data),
"object_%d", i);
        }
    }

    pr_info("Allocated %d objects\n", i);

/* 释放对象 */
for (i = 0; i < ARRAY_SIZE(objs); i++) {
if (objs[i])
            kmem_cache_free(my_cache, objs[i]);
    }

    kmem_cache_destroy(my_cache);
    my_cache = NULL;
}

staticvoidkmalloc_size_demo(void)
{
void *ptrs[10];
size_t sizes[] = {8163264128256512102420484096};
int i;

    pr_info("=== kmalloc Size Classes ===\n");

for (i = 0; i < ARRAY_SIZE(sizes); i++) {
        ptrs[i] = kmalloc(sizes[i], GFP_KERNEL);
if (ptrs[i]) {
            pr_info("kmalloc(%zu) -> actual=%zu, addr=%p\n",
                    sizes[i], ksize(ptrs[i]), ptrs[i]);
        }
    }

for (i = 0; i < ARRAY_SIZE(sizes); i++) {
        kfree(ptrs[i]);
    }
}

staticint __init slub_demo_init(void)
{
    kmem_cache_demo();
    kmalloc_size_demo();
return0;
}

staticvoid __exit slub_demo_exit(void) {}

module_init(slub_demo_init);
module_exit(slub_demo_exit);
# 查看SLUB缓存信息
cat /proc/slabinfo | head -20
# 或使用更友好的工具
sudo slabtop

# 查看特定缓存详细信息
sudo cat /sys/kernel/slab/task_struct/object_size
sudo cat /sys/kernel/slab/task_struct/slabs
sudo cat /sys/kernel/slab/task_struct/objects

# SLUB调试(内核参数)
# slub_debug=FPZU  启用所有调试选项
# F: 一致性检查
# P: 内存毒化
# Z: 红区
# U: 使用追踪

四、vmalloc与高端内存

4.1 kmalloc vs vmalloc

/*
 * kmalloc:
 * - 物理上连续
 * - 适合小对象(< 4MB)
 * - 速度快
 * - 可用于DMA
 *
 * vmalloc:
 * - 虚拟上连续,物理上可以不连续
 * - 适合大块内存(> 4MB)
 * - 速度较慢(需要建立页表)
 * - 不可直接用于DMA
 *
 * get_free_pages:
 * - 物理连续
 * - 按页分配(2^order页)
 * - 无额外元数据开销
 */

// vmalloc_demo.c - vmalloc使用示例
#include<linux/module.h>
#include<linux/vmalloc.h>
#include<linux/mm.h>

MODULE_LICENSE("GPL");

staticvoidvmalloc_test(void)
{
void *vptr;
structpage *page;
size_t size = 2 * 1024 * 1024;  /* 2MB */

    pr_info("=== vmalloc Demo ===\n");

/* vmalloc分配 */
    vptr = vmalloc(size);
if (!vptr) {
        pr_err("vmalloc failed\n");
return;
    }

    pr_info("vmalloc(%zu) -> vaddr=%p\n", size, vptr);

/* 验证物理不连续性 */
unsignedlong vaddr = (unsignedlong)vptr;
unsignedlong phys0 = page_to_phys(vmalloc_to_page((void *)vaddr));
unsignedlong phys1 = page_to_phys(vmalloc_to_page((void *)(vaddr + PAGE_SIZE)));
unsignedlong phys2 = page_to_phys(vmalloc_to_page((void *)(vaddr + 2*PAGE_SIZE)));

    pr_info("Physical addresses of first 3 pages:\n");
    pr_info("  page[0]: 0x%lx\n", phys0);
    pr_info("  page[1]: 0x%lx\n", phys1);
    pr_info("  page[2]: 0x%lx\n", phys2);

if (phys1 != phys0 + PAGE_SIZE)
        pr_info("  -> Pages are NOT physically contiguous (as expected)\n");

/* 写入测试 */
memset(vptr, 0, size);

    vfree(vptr);
    pr_info("vmalloc freed\n");
}

staticvoidioremap_demo(void)
{
/*
     * ioremap用于映射设备寄存器(MMIO)
     * 这里仅演示API,实际需要真实的物理地址
     */

    pr_info("=== ioremap API (demonstration) ===\n");
    pr_info("ioremap maps device physical addr to kernel virtual addr\n");
    pr_info("Usage: void __iomem *base = ioremap(phys_addr, size);\n");
    pr_info("       ioread32(base + offset);\n");
    pr_info("       iowrite32(val, base + offset);\n");
    pr_info("       iounmap(base);\n");
}

staticint __init vmalloc_demo_init(void)
{
    vmalloc_test();
    ioremap_demo();
return0;
}

staticvoid __exit vmalloc_demo_exit(void) {}

module_init(vmalloc_demo_init);
module_exit(vmalloc_demo_exit);

五、页表结构

5.1 x86-64四级页表

虚拟地址(48位):
+--------+--------+--------+--------+------------+
| PML4   |  PDP   |   PD   |   PT   |   Offset   |
| 9 bits | 9 bits | 9 bits | 9 bits |  12 bits   |
+--------+--------+--------+--------+------------+
  47-39    38-30    29-21    20-12     11-0

地址翻译:
CR3 → PML4 Entry → PDP Entry → PD Entry → PT Entry → 物理页
每级表项64位,9位索引 → 512个表项/页
# 查看进程的页表信息
sudo cat /proc/$(pgrep bash)/maps

# 查看页表统计
cat /proc/vmstat | grep -E "pgfault|pgmajfault|pswpin|pswpout"

# x86-64页表条目格式
# Bit 0: P (Present)
# Bit 1: R/W (Read/Write)
# Bit 2: U/S (User/Supervisor)
# Bit 3: PWT (Page Write Through)
# Bit 4: PCD (Page Cache Disable)
# Bit 5: A (Accessed)
# Bit 6: D (Dirty)
# Bit 7: PS (Page Size, 2MB/1GB huge pages)
# Bits 12-51: Physical address
# Bit 63: NX (No Execute)
// pagetable_demo.c - 页表遍历
#include<linux/module.h>
#include<linux/mm.h>
#include<linux/sched.h>
#include<linux/sched/mm.h>
#include<asm/pgtable.h>

MODULE_LICENSE("GPL");

staticintwalk_page_table(unsignedlong addr, struct mm_struct *mm)
{
pgd_t *pgd;
p4d_t *p4d;
pud_t *pud;
pmd_t *pmd;
pte_t *pte;

    pr_info("Walking page table for vaddr=0x%lx\n", addr);

/* Level 1: PGD (Page Global Directory = PML4) */
    pgd = pgd_offset(mm, addr);
if (pgd_none(*pgd) || pgd_bad(*pgd)) {
        pr_info("PGD: not present\n");
return -EFAULT;
    }
    pr_info("PGD: val=0x%lx\n", pgd_val(*pgd));

/* Level 2: P4D */
    p4d = p4d_offset(pgd, addr);
if (p4d_none(*p4d)) {
        pr_info("P4D: not present\n");
return -EFAULT;
    }

/* Level 3: PUD */
    pud = pud_offset(p4d, addr);
if (pud_none(*pud)) {
        pr_info("PUD: not present\n");
return -EFAULT;
    }
if (pud_large(*pud)) {
        pr_info("PUD: 1GB huge page, phys=0x%llx\n",
                (u64)(pud_pfn(*pud) << PAGE_SHIFT));
return0;
    }

/* Level 4: PMD */
    pmd = pmd_offset(pud, addr);
if (pmd_none(*pmd)) {
        pr_info("PMD: not present\n");
return -EFAULT;
    }
if (pmd_large(*pmd)) {
        pr_info("PMD: 2MB huge page, phys=0x%llx\n",
                (u64)(pmd_pfn(*pmd) << PAGE_SHIFT));
return0;
    }

/* Level 5: PTE */
    pte = pte_offset_map(pmd, addr);
if (!pte || pte_none(*pte)) {
        pr_info("PTE: not present\n");
if (pte) pte_unmap(pte);
return -EFAULT;
    }

    pr_info("PTE: val=0x%lx\n", pte_val(*pte));
    pr_info("  Physical: 0x%llx\n", (u64)(pte_pfn(*pte) << PAGE_SHIFT));
    pr_info("  Present:  %d\n", pte_present(*pte));
    pr_info("  Write:    %d\n", pte_write(*pte));
    pr_info("  User:     %d\n", pte_user(*pte));
    pr_info("  Dirty:    %d\n", pte_dirty(*pte));
    pr_info("  Young:    %d\n", pte_young(*pte));

    pte_unmap(pte);
return0;
}

staticint __init pagetable_demo_init(void)
{
structmm_struct *mm = current->mm;
unsignedlong stack_addr = current->mm->start_stack;

    mmget(mm);
    mmap_read_lock(mm);
    walk_page_table(stack_addr, mm);
    mmap_read_unlock(mm);
    mmput(mm);

return0;
}

staticvoid __exit pagetable_demo_exit(void) {}

module_init(pagetable_demo_init);
module_exit(pagetable_demo_exit);

六、内存回收机制

6.1 页面回收概述

内存压力触发回收:
  kswapd(后台,水位线)
  direct reclaim(直接回收,内存紧张时)

回收目标页面类型:
  Clean file pages    → 直接丢弃(可从磁盘重读)
  Dirty file pages    → 写回磁盘后丢弃
  Anonymous pages     → 写入swap分区/文件
  Slab caches         → 调用shrinker回调

LRU链表(两组):
  active_anon   inactive_anon    匿名页
  active_file   inactive_file    文件页

页面老化:
  访问时放入active链表头
  定期移动到inactive链表
  inactive链表尾部的页被回收
# 查看内存水位线
cat /proc/zoneinfo | grep -A5 "Node 0"

# 查看内存压力统计
cat /proc/vmstat | grep -E "pgsteal|pgscand|pgactivate|pgdeactivate"

# 调整swappiness(0=不换出匿名页,100=积极换出)
cat /proc/sys/vm/swappiness
sudo sysctl -w vm.swappiness=10

# 触发手动内存回收(不建议生产使用)
# 1: PageCache, 2: dentries/inodes, 3: 两者都清
echo 1 | sudo tee /proc/sys/vm/drop_caches

# 查看swap使用
swapon --show
cat /proc/swaps
vmstat 1 5

6.2 OOM Killer

# 查看OOM分数
cat /proc/$(pgrep firefox)/oom_score
cat /proc/$(pgrep firefox)/oom_score_adj  # -1000到1000

# 设置OOM分数(-17到15, -17=永不杀死)
echo -1000 | sudo tee /proc/1/oom_score_adj  # 保护init

# 查看OOM killer日志
dmesg | grep -E "Out of memory|oom_kill"
journalctl -k | grep OOM
// oom_demo.c - OOM相关内核操作
#include<linux/module.h>
#include<linux/oom.h>
#include<linux/sched.h>

MODULE_LICENSE("GPL");

staticint __init oom_demo_init(void)
{
structtask_struct *task;

    pr_info("=== OOM Score Demo ===\n");

    rcu_read_lock();
    for_each_process(task) {
if (task->mm) {  /* 只看有内存的进程 */
long score = oom_badness(task, ULONG_MAX);
if (score > 100) {  /* 只打印分数较高的 */
                pr_info("PID=%d (%s): oom_score=%ld, adj=%d\n",
                        task->pid, task->comm,
                        score,
                        task->signal->oom_score_adj);
            }
        }
    }
    rcu_read_unlock();

return0;
}

staticvoid __exit oom_demo_exit(void) {}

module_init(oom_demo_init);
module_exit(oom_demo_exit);

七、NUMA架构内存管理

7.1 NUMA基础

/*
 * NUMA (Non-Uniform Memory Access):
 * - 多个内存节点(Node),每个与特定CPU组关联
 * - 访问本地节点内存快,访问远程节点慢
 * - 内核尽量在任务所在节点分配内存
 */

# 查看NUMA拓扑
numactl --hardware
# 示例输出:
# available: 2 nodes (0-1)
# node 0 cpus: 0 1 2 3
# node 0 size: 8192 MB
# node 1 cpus: 4 5 6 7
# node 1 size: 8192 MB
# node distances: 0  1
#                 0: 10 20
#                 1: 20 10

# NUMA内存统计
numastat
numastat -p $(pgrep java)

# 绑定进程到特定NUMA节点
numactl --cpunodebind=0 --membind=0 ./myprogram

# 查看NUMA迁移统计
cat /proc/vmstat | grep numa
// numa_demo.c - NUMA感知的内存分配
#include<linux/module.h>
#include<linux/mm.h>
#include<linux/numa.h>
#include<linux/topology.h>
#include<linux/nodemask.h>

MODULE_LICENSE("GPL");

staticint __init numa_demo_init(void)
{
int node;
structpage *page;

    pr_info("=== NUMA Info ===\n");
    pr_info("num_online_nodes: %d\n", num_online_nodes());
    pr_info("Current CPU node: %d\n", numa_node_id());

/* 在每个节点分配内存 */
    for_each_online_node(node) {
        pr_info("Node %d: present=%lu pages\n",
                node,
                node_present_pages(node));

/* 在指定节点分配页 */
        page = alloc_pages_node(node, GFP_KERNEL, 0);
if (page) {
            pr_info("  Allocated page on node %d, PFN=%lu\n",
                    node, page_to_pfn(page));
            __free_page(page);
        }
    }

/* kmalloc_node: 在指定NUMA节点分配 */
void *buf = kmalloc_node(4096, GFP_KERNEL, 0);
if (buf) {
        pr_info("kmalloc_node(0): %p, node=%d\n",
                buf, page_to_nid(virt_to_page(buf)));
        kfree(buf);
    }

return0;
}

staticvoid __exit numa_demo_exit(void) {}

module_init(numa_demo_init);
module_exit(numa_demo_exit);

八、大页(HugePage)

8.1 标准大页(Huge Pages)

# 查看大页配置
cat /proc/meminfo | grep -i huge
# HugePages_Total: 0      大页总数
# HugePages_Free:  0      空闲大页
# Hugepagesize:    2048 kB  大页大小(2MB on x86-64)

# 分配大页
echo 128 | sudo tee /proc/sys/vm/nr_hugepages

# 挂载hugetlbfs
sudo mkdir /mnt/hugepages
sudo mount -t hugetlbfs nodev /mnt/hugepages

# 查看1GB大页(需要CPU支持pdpe1gb)
grep pdpe1gb /proc/cpuinfo
echo 2 | sudo tee /sys/kernel/mm/hugepages/hugepages-1048576kB/nr_hugepages
// hugepage_demo.c - 用户空间大页使用
#include<stdio.h>
#include<stdlib.h>
#include<sys/mman.h>
#include<sys/stat.h>
#include<fcntl.h>
#include<unistd.h>
#include<string.h>
#include<errno.h>

#define HUGE_PAGE_SIZE (2 * 1024 * 1024)  /* 2MB */

intmain()
{
void *ptr;
int fd;

/* 方法1:通过hugetlbfs文件 */
    fd = open("/mnt/hugepages/test", O_CREAT | O_RDWR, 0755);
if (fd < 0) {
        perror("open hugetlbfs");
goto try_mmap;
    }
    ftruncate(fd, HUGE_PAGE_SIZE);
    ptr = mmap(NULL, HUGE_PAGE_SIZE, PROT_READ | PROT_WRITE,
               MAP_SHARED, fd, 0);
if (ptr != MAP_FAILED) {
printf("Hugepage via hugetlbfs: %p\n", ptr);
memset(ptr, 0, HUGE_PAGE_SIZE);
        munmap(ptr, HUGE_PAGE_SIZE);
    }
    close(fd);
    unlink("/mnt/hugepages/test");

try_mmap:
/* 方法2:通过MAP_HUGETLB(需要大页池)*/
    ptr = mmap(NULL, HUGE_PAGE_SIZE, PROT_READ | PROT_WRITE,
               MAP_PRIVATE | MAP_ANONYMOUS | MAP_HUGETLB, -10);
if (ptr != MAP_FAILED) {
printf("Hugepage via MAP_HUGETLB: %p\n", ptr);
memset(ptr, 0xAB, HUGE_PAGE_SIZE);
        munmap(ptr, HUGE_PAGE_SIZE);
    } else {
        perror("MAP_HUGETLB mmap");
    }

return0;
}

8.2 透明大页(THP)

# 查看THP状态
cat /sys/kernel/mm/transparent_hugepage/enabled
# [always] madvise never

# 设置THP策略
echo madvise | sudo tee /sys/kernel/mm/transparent_hugepage/enabled

# 查看THP统计
cat /proc/vmstat | grep thp

# 在程序中使用madvise提示THP
# madvise(addr, length, MADV_HUGEPAGE);    # 建议使用THP
# madvise(addr, length, MADV_NOHUGEPAGE);  # 禁止使用THP

九、内存映射与VMA

9.1 虚拟内存区域(VMA)

// vma_demo.c - VMA操作
#include<linux/module.h>
#include<linux/mm.h>
#include<linux/sched.h>
#include<linux/sched/mm.h>

MODULE_LICENSE("GPL");

staticvoiddump_process_vmas(struct task_struct *task)
{
structmm_struct *mm;
structvm_area_struct *vma;

    mm = get_task_mm(task);
if (!mm) return;

    pr_info("VMAs for PID=%d (%s):\n", task->pid, task->comm);

    mmap_read_lock(mm);

/* 遍历所有VMA(使用VMA迭代器)*/
    VMA_ITERATOR(vmi, mm, 0);
    for_each_vma(vmi, vma) {
constchar *name = vma->vm_file ?
            vma->vm_file->f_path.dentry->d_name.name : "[anonymous]";

        pr_info("  [0x%lx - 0x%lx] size=%lukB flags=%c%c%c %s\n",
                vma->vm_start,
                vma->vm_end,
                (vma->vm_end - vma->vm_start) / 1024,
                (vma->vm_flags & VM_READ)  ? 'r' : '-',
                (vma->vm_flags & VM_WRITE) ? 'w' : '-',
                (vma->vm_flags & VM_EXEC)  ? 'x' : '-',
                name);
    }

    mmap_read_unlock(mm);
    mmput(mm);
}

staticint __init vma_demo_init(void)
{
    dump_process_vmas(current);
return0;
}

staticvoid __exit vma_demo_exit(void) {}

module_init(vma_demo_init);
module_exit(vma_demo_exit);

十、内存压缩与KSM

10.1 内存压缩(zswap/zram)

# zswap:压缩swap缓存(拦截页面写入swap时先压缩)
echo 1 | sudo tee /sys/module/zswap/parameters/enabled
cat /sys/kernel/debug/zswap/pool_total_size

# zram:创建压缩内存块设备用作swap
sudo modprobe zram
echo lz4 | sudo tee /sys/block/zram0/comp_algorithm
echo 2G | sudo tee /sys/block/zram0/disksize
sudo mkswap /dev/zram0
sudo swapon -p 100 /dev/zram0

# 查看zram统计
cat /sys/block/zram0/mm_stat

10.2 KSM(内核同页合并)

# KSM将相同内容的页面合并为一个(节省内存)
# 典型场景:虚拟机中多个相同OS实例

# 启用KSM
echo 1 | sudo tee /sys/kernel/mm/ksm/run

# 查看KSM统计
cat /sys/kernel/mm/ksm/pages_shared      # 共享的页数
cat /sys/kernel/mm/ksm/pages_sharing     # 使用共享页的进程数
cat /sys/kernel/mm/ksm/pages_unshared    # 扫描但未共享的页数

# 进程中标记可合并区域
# madvise(addr, len, MADV_MERGEABLE);
# madvise(addr, len, MADV_UNMERGEABLE);

实践检查清单

伙伴系统

  • [ ] 理解Zone划分和伙伴系统的分裂/合并
  • [ ] 能用alloc_pages() 分配不同order的页
  • [ ] 读懂 /proc/buddyinfo 输出
  • [ ] 理解各种GFP标志的使用场景

SLUB分配器

  • [ ] 能创建自定义 kmem_cache
  • [ ] 理解kmalloc 的内部大小类(size classes)
  • [ ] 用slabtop 分析内存占用最多的缓存
  • [ ] 理解SLAB_POISON和SLAB_RED_ZONE的作用

页表

  • [ ] 能描述x86-64四级页表的完整翻译流程
  • [ ] 理解页表项各个标志位含义
  • [ ] 能在内核模块中遍历进程页表

内存回收

  • [ ] 理解LRU链表的工作机制
  • [ ] 理解kswapd的触发条件(min/low/high水位线)
  • [ ] 理解OOM killer的选择算法
  • [ ] 能通过 /proc/vmstat监控内存压力指标

高级特性

  • [ ] 理解NUMA内存分配策略
  • [ ] 能配置和使用标准大页(HugePage)
  • [ ] 理解透明大页(THP)的优缺点
  • [ ] 理解VMA的结构和用途

最新文章

随机文章

基本 文件 流程 错误 SQL 调试
  1. 请求信息 : 2026-03-27 09:54:03 HTTP/2.0 GET : https://f.mffb.com.cn/a/479720.html
  2. 运行时间 : 0.244920s [ 吞吐率:4.08req/s ] 内存消耗:4,869.84kb 文件加载:140
  3. 缓存信息 : 0 reads,0 writes
  4. 会话信息 : SESSION_ID=0d7a662a15097657deb3027af785a721
  1. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/public/index.php ( 0.79 KB )
  2. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/autoload.php ( 0.17 KB )
  3. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/autoload_real.php ( 2.49 KB )
  4. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/platform_check.php ( 0.90 KB )
  5. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/ClassLoader.php ( 14.03 KB )
  6. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/autoload_static.php ( 4.90 KB )
  7. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/helper.php ( 8.34 KB )
  8. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-validate/src/helper.php ( 2.19 KB )
  9. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/helper.php ( 1.47 KB )
  10. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/stubs/load_stubs.php ( 0.16 KB )
  11. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Exception.php ( 1.69 KB )
  12. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-container/src/Facade.php ( 2.71 KB )
  13. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/deprecation-contracts/function.php ( 0.99 KB )
  14. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/polyfill-mbstring/bootstrap.php ( 8.26 KB )
  15. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/polyfill-mbstring/bootstrap80.php ( 9.78 KB )
  16. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/var-dumper/Resources/functions/dump.php ( 1.49 KB )
  17. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-dumper/src/helper.php ( 0.18 KB )
  18. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/var-dumper/VarDumper.php ( 4.30 KB )
  19. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/App.php ( 15.30 KB )
  20. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-container/src/Container.php ( 15.76 KB )
  21. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/container/src/ContainerInterface.php ( 1.02 KB )
  22. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/provider.php ( 0.19 KB )
  23. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Http.php ( 6.04 KB )
  24. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/helper/Str.php ( 7.29 KB )
  25. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Env.php ( 4.68 KB )
  26. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/common.php ( 0.03 KB )
  27. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/helper.php ( 18.78 KB )
  28. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Config.php ( 5.54 KB )
  29. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/app.php ( 0.95 KB )
  30. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/cache.php ( 0.78 KB )
  31. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/console.php ( 0.23 KB )
  32. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/cookie.php ( 0.56 KB )
  33. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/database.php ( 2.48 KB )
  34. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/facade/Env.php ( 1.67 KB )
  35. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/filesystem.php ( 0.61 KB )
  36. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/lang.php ( 0.91 KB )
  37. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/log.php ( 1.35 KB )
  38. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/middleware.php ( 0.19 KB )
  39. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/route.php ( 1.89 KB )
  40. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/session.php ( 0.57 KB )
  41. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/trace.php ( 0.34 KB )
  42. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/view.php ( 0.82 KB )
  43. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/event.php ( 0.25 KB )
  44. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Event.php ( 7.67 KB )
  45. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/service.php ( 0.13 KB )
  46. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/AppService.php ( 0.26 KB )
  47. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Service.php ( 1.64 KB )
  48. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Lang.php ( 7.35 KB )
  49. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/lang/zh-cn.php ( 13.70 KB )
  50. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/initializer/Error.php ( 3.31 KB )
  51. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/initializer/RegisterService.php ( 1.33 KB )
  52. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/services.php ( 0.14 KB )
  53. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/service/PaginatorService.php ( 1.52 KB )
  54. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/service/ValidateService.php ( 0.99 KB )
  55. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/service/ModelService.php ( 2.04 KB )
  56. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-trace/src/Service.php ( 0.77 KB )
  57. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Middleware.php ( 6.72 KB )
  58. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/initializer/BootService.php ( 0.77 KB )
  59. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/Paginator.php ( 11.86 KB )
  60. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-validate/src/Validate.php ( 63.20 KB )
  61. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/Model.php ( 23.55 KB )
  62. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/Attribute.php ( 21.05 KB )
  63. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/AutoWriteData.php ( 4.21 KB )
  64. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/Conversion.php ( 6.44 KB )
  65. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/DbConnect.php ( 5.16 KB )
  66. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/ModelEvent.php ( 2.33 KB )
  67. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/RelationShip.php ( 28.29 KB )
  68. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/contract/Arrayable.php ( 0.09 KB )
  69. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/contract/Jsonable.php ( 0.13 KB )
  70. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/contract/Modelable.php ( 0.09 KB )
  71. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Db.php ( 2.88 KB )
  72. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/DbManager.php ( 8.52 KB )
  73. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Log.php ( 6.28 KB )
  74. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Manager.php ( 3.92 KB )
  75. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/log/src/LoggerTrait.php ( 2.69 KB )
  76. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/log/src/LoggerInterface.php ( 2.71 KB )
  77. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Cache.php ( 4.92 KB )
  78. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/simple-cache/src/CacheInterface.php ( 4.71 KB )
  79. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/helper/Arr.php ( 16.63 KB )
  80. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/cache/driver/File.php ( 7.84 KB )
  81. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/cache/Driver.php ( 9.03 KB )
  82. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/CacheHandlerInterface.php ( 1.99 KB )
  83. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/Request.php ( 0.09 KB )
  84. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Request.php ( 55.78 KB )
  85. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/middleware.php ( 0.25 KB )
  86. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Pipeline.php ( 2.61 KB )
  87. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-trace/src/TraceDebug.php ( 3.40 KB )
  88. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/middleware/SessionInit.php ( 1.94 KB )
  89. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Session.php ( 1.80 KB )
  90. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/session/driver/File.php ( 6.27 KB )
  91. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/SessionHandlerInterface.php ( 0.87 KB )
  92. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/session/Store.php ( 7.12 KB )
  93. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Route.php ( 23.73 KB )
  94. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/RuleName.php ( 5.75 KB )
  95. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/Domain.php ( 2.53 KB )
  96. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/RuleGroup.php ( 22.43 KB )
  97. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/Rule.php ( 26.95 KB )
  98. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/RuleItem.php ( 9.78 KB )
  99. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/route/app.php ( 1.72 KB )
  100. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/facade/Route.php ( 4.70 KB )
  101. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/dispatch/Controller.php ( 4.74 KB )
  102. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/Dispatch.php ( 10.44 KB )
  103. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/controller/Index.php ( 4.81 KB )
  104. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/BaseController.php ( 2.05 KB )
  105. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/facade/Db.php ( 0.93 KB )
  106. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/connector/Mysql.php ( 5.44 KB )
  107. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/PDOConnection.php ( 52.47 KB )
  108. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/Connection.php ( 8.39 KB )
  109. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/ConnectionInterface.php ( 4.57 KB )
  110. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/builder/Mysql.php ( 16.58 KB )
  111. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/Builder.php ( 24.06 KB )
  112. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/BaseBuilder.php ( 27.50 KB )
  113. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/Query.php ( 15.71 KB )
  114. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/BaseQuery.php ( 45.13 KB )
  115. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/TimeFieldQuery.php ( 7.43 KB )
  116. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/AggregateQuery.php ( 3.26 KB )
  117. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/ModelRelationQuery.php ( 20.07 KB )
  118. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/ParamsBind.php ( 3.66 KB )
  119. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/ResultOperation.php ( 7.01 KB )
  120. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/WhereQuery.php ( 19.37 KB )
  121. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/JoinAndViewQuery.php ( 7.11 KB )
  122. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/TableFieldInfo.php ( 2.63 KB )
  123. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/Transaction.php ( 2.77 KB )
  124. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/log/driver/File.php ( 5.96 KB )
  125. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/LogHandlerInterface.php ( 0.86 KB )
  126. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/log/Channel.php ( 3.89 KB )
  127. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/event/LogRecord.php ( 1.02 KB )
  128. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/Collection.php ( 16.47 KB )
  129. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/facade/View.php ( 1.70 KB )
  130. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/View.php ( 4.39 KB )
  131. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Response.php ( 8.81 KB )
  132. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/response/View.php ( 3.29 KB )
  133. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Cookie.php ( 6.06 KB )
  134. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-view/src/Think.php ( 8.38 KB )
  135. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/TemplateHandlerInterface.php ( 1.60 KB )
  136. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-template/src/Template.php ( 46.61 KB )
  137. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-template/src/template/driver/File.php ( 2.41 KB )
  138. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-template/src/template/contract/DriverInterface.php ( 0.86 KB )
  139. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/runtime/temp/067d451b9a0c665040f3f1bdd3293d68.php ( 11.98 KB )
  140. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-trace/src/Html.php ( 4.42 KB )
  1. CONNECT:[ UseTime:0.000852s ] mysql:host=127.0.0.1;port=3306;dbname=f_mffb;charset=utf8mb4
  2. SHOW FULL COLUMNS FROM `fenlei` [ RunTime:0.001459s ]
  3. SELECT * FROM `fenlei` WHERE `fid` = 0 [ RunTime:0.000738s ]
  4. SELECT * FROM `fenlei` WHERE `fid` = 63 [ RunTime:0.000735s ]
  5. SHOW FULL COLUMNS FROM `set` [ RunTime:0.001337s ]
  6. SELECT * FROM `set` [ RunTime:0.002304s ]
  7. SHOW FULL COLUMNS FROM `article` [ RunTime:0.001538s ]
  8. SELECT * FROM `article` WHERE `id` = 479720 LIMIT 1 [ RunTime:0.010989s ]
  9. UPDATE `article` SET `lasttime` = 1774576443 WHERE `id` = 479720 [ RunTime:0.001590s ]
  10. SELECT * FROM `fenlei` WHERE `id` = 67 LIMIT 1 [ RunTime:0.001372s ]
  11. SELECT * FROM `article` WHERE `id` < 479720 ORDER BY `id` DESC LIMIT 1 [ RunTime:0.005880s ]
  12. SELECT * FROM `article` WHERE `id` > 479720 ORDER BY `id` ASC LIMIT 1 [ RunTime:0.002143s ]
  13. SELECT * FROM `article` WHERE `id` < 479720 ORDER BY `id` DESC LIMIT 10 [ RunTime:0.004300s ]
  14. SELECT * FROM `article` WHERE `id` < 479720 ORDER BY `id` DESC LIMIT 10,10 [ RunTime:0.030510s ]
  15. SELECT * FROM `article` WHERE `id` < 479720 ORDER BY `id` DESC LIMIT 20,10 [ RunTime:0.013687s ]
0.248699s