当前位置:首页>Linux>Linux内核同步机制,系统稳定的幕后英雄

Linux内核同步机制,系统稳定的幕后英雄

  • 2026-03-07 03:13:04
Linux内核同步机制,系统稳定的幕后英雄

在Linux系统的运行过程中,无数进程与线程在底层并行运转,硬件资源与软件指令的交互时刻发生。当多个执行单元同时访问共享资源时,冲突与混乱极易发生——比如多个进程争抢同一内存空间、设备接口被重复调用,轻则导致数据错乱,重则引发系统崩溃、死锁等致命问题。而有一套底层机制始终在默默守护,它如同精密的交通指挥员,协调着所有执行单元的运行节奏,避免冲突、规范访问,保障系统在高负载、多任务场景下依然有序运转。

这套机制不直接面向用户,却贯穿了系统运行的每一个环节,从简单的命令执行到复杂的服务部署,从个人终端到服务器集群,它都在发挥着不可替代的作用。它隐藏在内核深处,通过一系列规范与策略,解决并发访问带来的各类问题,确保共享资源的安全调用、指令的有序执行,为上层应用的稳定运行筑牢根基。正是这套默默无闻的机制,支撑着Linux系统的高可靠性与高并发能力,成为保障系统稳定的核心力量。

一、内核同步机制基础概念

1.1同步的定义

在 Linux 内核的世界里,同步是一种至关重要的机制,它就像是一位严谨的指挥官,严格控制着多个执行路径对系统资源的访问顺序和规则 。这里所说的执行路径,简单来讲,就是在 CPU 上运行的各种代码流,它的范畴很广,既涵盖了用户态线程,这些线程负责处理用户层面的各种任务,比如我们日常使用的应用程序中的线程;也包括内核线程,它们在内核空间中默默运行,承担着诸如内存管理、进程调度等关键任务;甚至连中断服务程序也包含其中,当中断发生时,CPU 会暂停当前任务,转而执行中断服务程序,以处理诸如硬件设备的请求等紧急事务。

为了更形象地理解同步的概念,我们可以把 Linux 内核想象成一个繁忙的图书馆,图书馆里的书籍就是共享资源,而读者则是一个个执行路径。如果没有同步机制,就好比图书馆没有任何借阅规则,读者们可以随意进出书架区,随意借阅和归还书籍,这样必然会导致书籍摆放混乱,借阅记录也会一团糟,其他读者可能就无法顺利找到自己需要的书籍。而有了同步机制,就如同图书馆制定了严格的借阅规则,每次只允许一位读者进入书架区借阅或归还书籍,这样就能保证书籍的有序管理,确保每个读者都能高效地获取到自己需要的资源。

1.2并发与竞态

并发,简单来说,就是两个或多个执行路径在同一时间段内同时被执行 。在如今的多核 CPU 时代,这种现象极为常见。每个 CPU 核心都可以独立地执行任务,就像多个勤劳的小工人各自忙碌着。例如,在一台配备四核 CPU 的电脑上,当我们同时打开浏览器浏览网页、播放音乐、进行文件解压以及运行杀毒软件时,这些任务会被分配到不同的 CPU 核心上并发执行,让我们感觉仿佛它们是在同时进行一样。

然而,并发执行路径在访问共享资源时,却容易引发一个严重的问题 —— 竞态。共享资源可以是硬件资源,比如内存、硬盘、网卡等,也可以是软件层面的全局变量、静态变量等。当多个执行路径同时对共享资源进行读写操作时,如果没有合理的同步机制来协调,就会出现竞态。一旦竞态发生,程序的运行结果就会变得不可预测,可能出现数据不一致、程序崩溃等严重问题 。

以多核 CPU 访问共享内存中的一个全局变量count为例,假设count的初始值为 0 。现在有两个 CPU 核心,CPU1 和 CPU2,它们都要对count进行加 1 操作。在理想情况下,经过两次加 1 操作后,count的值应该为 2 。但由于竞态的存在,可能会出现以下情况:CPU1 读取count的值为 0,然后 CPU2 也读取count的值为 0 。接着 CPU1 将count加 1,此时count的值变为 1,但还没来得及将结果写回内存。这时 CPU2 也进行加 1 操作,它将自己读取的 0 加 1,得到 1,然后将 1 写回内存。最后 CPU1 再将自己计算得到的 1 写回内存,覆盖了 CPU2 的结果。这样一来,虽然进行了两次加 1 操作,但count的值最终却为 1,与我们预期的 2 不一致,这就是竞态导致的数据不一致问题。

1.3中断与抢占

中断,是计算机系统中的一个重要概念。简单来讲,当计算机在执行当前程序时,如果出现了某些紧急事件,比如硬件设备发出的请求(如键盘输入、网络数据到达等),或者系统内部的一些定时事件,CPU 就会暂时停止当前程序的执行,转而去处理这些紧急事件。当处理完毕后,再返回原来的程序继续执行 。中断就像是一个紧急通知,它会打断 CPU 正在进行的工作,优先处理更紧急的任务。

抢占,则属于进程调度的范畴。从 Linux 内核 2.6 版本开始,就支持抢占调度。通俗地说,抢占就是当一个任务(可以是用户态进程,也可以是内核线程)正在 CPU 上运行时,如果此时有另一个优先级更高的任务就绪,调度器就会剥夺当前任务的 CPU 执行权,将 CPU 分配给更高优先级的任务,让其得以运行 。这就好比在一场比赛中,原本正在赛道上奔跑的选手,如果突然出现了一个更有实力、更紧急参赛的选手,裁判就会让当前选手暂停比赛,让更有实力的选手先上场。

中断和抢占与同步机制有着紧密的联系,它们也是导致竞态产生的重要因素。当中断发生时,如果中断服务程序和被中断的进程同时访问共享资源,就很容易引发竞态。比如,一个进程正在访问共享内存中的某个数据,突然发生了中断,中断服务程序也需要访问该数据,由于两者的访问没有得到有效的同步控制,就可能导致数据不一致。同样,在抢占的情况下,如果一个进程在内核态执行时被另一个高优先级进程抢占,而这两个进程又都访问共享资源,也会产生竞态。例如,低优先级进程正在修改共享资源,还未完成全部操作时就被高优先级进程抢占,高优先级进程也对该共享资源进行操作,之后低优先级进程继续执行时,就可能覆盖高优先级进程的修改结果,从而引发数据错误。

二、常用的内核同步机制

2.1原子操作

原子操作,从字面意义上理解,就是不可再分的操作。在计算机科学中,原子操作是一种特殊的操作,它在执行过程中不会被其他任何操作所中断,就像一个坚不可摧的整体,要么全部执行完成,要么完全不执行。这种特性使得原子操作在多线程或多进程并发执行的环境中,能够确保对共享资源的访问是安全的,不会出现数据不一致的情况。

在 Linux 内核中,原子操作主要是针对整数类型的数据和位操作。对于整数类型的原子操作,内核提供了一系列的接口函数,这些函数就像是一个个精密的工具,能够对整数进行各种原子级别的操作。比如atomic_read函数,它的作用就像是从一个安全的保险箱中读取数据,能够原子地读取一个atomic_t类型的变量的值,确保在读取过程中不会受到其他线程或进程的干扰;atomic_set函数则如同往保险箱中存入数据,能够原子地设置一个atomic_t类型的变量的值;atomic_add函数可以原子地将一个给定的值加到一个atomic_t类型的变量上,就像是在保险箱中的数据上进行安全的加法运算;atomic_sub函数则可以原子地从一个atomic_t类型的变量中减去一个给定的值 。

以一个简单的计数器场景为例,假设在一个多线程的程序中,有多个线程需要对一个共享的计数器进行递增操作。如果不使用原子操作,由于竞态的存在,可能会导致最终的计数值出现错误。但如果使用原子操作,就可以确保每个线程对计数器的递增操作是原子的,不会出现数据竞争的问题。比如,使用atomic_add函数,就可以安全地对计数器进行递增操作,保证计数值的准确性。

对于位操作,Linux 内核同样提供了丰富的原子操作接口函数。像set_bit函数,它可以原子地设置一个内存地址中的某一位,就像是在一幅地图上精确地标记一个位置;clear_bit函数可以原子地清除某一位,如同擦除地图上的一个标记;test_and_set_bit函数则可以测试并设置某一位,先检查这一位的状态,然后再进行设置操作 。这些位操作函数在很多场景中都有着重要的应用,比如在设备驱动程序中,常常需要通过位操作来控制硬件设备的状态寄存器,原子位操作能够确保对这些寄存器的操作是安全、准确的,避免因并发访问而导致设备状态的混乱。

原子操作代码示例:

// 1. 整数原子操作:实现多线程安全的计数器#include <linux/atomic.h>#include <linux/module.h>#include <linux/kthread.h>// 定义原子变量(计数器)atomic_t counter;// 线程退出标志static int stop_thread = 0;// 线程函数:对原子计数器进行原子加1操作staticintatomic_thread_func(void *data){    while (!stop_thread) {        // 原子加1:不可中断,确保多线程并发安全        atomic_add(1, &counter);        // 耗时操作(避免CPU占用过高)        msleep(10);    }    return 0;}staticint __init atomic_demo_init(void){    struct task_struct *thread1, *thread2;    // 初始化原子变量为0    atomic_set(&counter, 0);    // 创建两个线程,并发操作原子计数器    thread1 = kthread_run(atomic_thread_func, NULL"atomic_thread1");    thread2 = kthread_run(atomic_thread_func, NULL"atomic_thread2");    // 让线程运行1秒    msleep(1000);    // 停止线程    stop_thread = 1;    // 等待线程退出    kthread_stop(thread1);    kthread_stop(thread2);    // 原子读取计数器值(确保读取过程不被中断)    printk("原子计数器最终值:%d\n"atomic_read(&counter));    return 0;}staticvoid __exit atomic_demo_exit(void){    printk("原子操作示例退出\n");}module_init(atomic_demo_init);module_exit(atomic_demo_exit);MODULE_LICENSE("GPL");// 2. 原子位操作:设备状态控制static unsigned int dev_status = 0// 设备状态寄存器// 设置设备状态位(原子操作)voidset_dev_status(unsignedint bit){    set_bit(bit, &dev_status); // 原子设置第bit位为1}// 清除设备状态位(原子操作)voidclear_dev_status(unsignedint bit){    clear_bit(bit, &dev_status); // 原子清除第bit位为0}// 测试并设置设备状态位(原子操作)inttest_and_set_dev_status(unsignedint bit){    // 先测试第bit位,再设置为1,返回设置前的状态    return test_and_set_bit(bit, &dev_status);}

上述示例分为两部分,整数原子操作实现多线程安全计数器,两个内核线程并发对原子变量counter执行加1操作,通过atomic_add和atomic_read确保操作原子性,避免竞态;原子位操作模拟设备状态控制,通过set_bit、clear_bit等接口,安全控制设备状态位,适用于设备驱动场景。

原子操作由于其不可中断的特性,在对简单数据类型的操作场景中表现出色 。例如,在多处理器系统中,对一些状态标志位的设置和读取操作,原子操作能够确保这些操作的原子性,避免由于并发访问导致的状态混乱。在设备驱动程序中,当需要对硬件设备的寄存器进行简单的读写操作时,原子操作可以保证对寄存器的访问是安全的,不会受到其他线程或进程的干扰 。然而,原子操作的适用范围相对较窄,它主要针对的是一些简单的、不可分割的操作,对于复杂的数据结构和操作场景,原子操作往往无法满足需求。

2.2自旋锁(spinlock)

自旋锁是一种在多线程编程中广泛应用的同步机制,尤其在 Linux 内核中,它扮演着重要的角色。自旋锁的工作原理基于一个简单而巧妙的思想:当一个线程尝试获取锁时,如果发现锁已经被其他线程持有,它并不会像传统的锁机制那样立即进入睡眠状态,等待锁的释放,而是会在原地不断地循环检查锁的状态,这种循环等待的方式就如同一个人在原地不停地转圈,所以被形象地称为 “自旋”。一旦发现锁被释放,它就可以立即获取锁并继续执行任务。

在 Linux 内核中,自旋锁提供了一系列丰富且实用的接口函数,这些函数是开发者在编写内核代码时进行同步控制的得力工具。例如,spin_lock函数,它是获取自旋锁的基本函数,当一个线程调用spin_lock时,如果锁可用,它会立即获取锁并继续执行后续代码;如果锁已被占用,线程就会进入自旋状态,不断循环检查锁的状态 。spin_unlock函数则用于释放自旋锁,当线程完成对共享资源的访问后,调用该函数将锁释放,以便其他线程能够获取。spin_trylock函数是一个非阻塞的尝试获取自旋锁的函数,如果锁可用,它会立即获取锁并返回非零值,表示获取成功;如果锁已被占用,它不会进入自旋状态,而是直接返回零值,表示获取失败 。

为了更直观地理解自旋锁的应用场景,让我们以多核 SMP(对称多处理)环境下的共享资源访问为例。假设在一个多核处理器系统中,有多个 CPU 核心,每个核心都可能运行不同的线程。现在有一个共享的资源,比如一个全局变量或者一个数据结构,多个线程需要对其进行访问和修改。如果没有同步机制,这些线程同时访问共享资源时,就会出现竞态条件,导致数据不一致。此时,自旋锁就可以发挥重要作用。

当一个线程需要访问共享资源时,它首先调用spin_lock函数尝试获取自旋锁。如果此时锁未被其他线程持有,该线程就能顺利获取锁,然后安全地访问共享资源。在访问期间,其他线程如果也尝试获取该自旋锁,由于锁已被占用,它们就会进入自旋状态,在原地不断循环检查锁的状态。直到持有锁的线程完成对共享资源的访问,调用spin_unlock函数释放锁,此时自旋的线程就能立即检测到锁的释放,并获取锁来访问共享资源 。

自旋锁的适用场景主要是在锁被持有时间较短的情况下。因为自旋锁在等待锁的过程中,线程会一直占用 CPU 资源进行自旋,这就意味着如果锁被长时间持有,自旋的线程会白白浪费大量的 CPU 时间,降低系统的整体性能。所以,自旋锁通常适用于那些对共享资源的访问操作非常快速的场景,比如对一些简单变量的读写操作、对小型数据结构的短暂访问等。在这些场景中,由于锁的持有时间很短,线程自旋等待的时间也相对较短,不会造成过多的 CPU 资源浪费,同时还能避免线程上下文切换带来的开销,从而提高系统的并发性能。然而,在锁持有时间较长的情况下,自旋锁就不太适用了,因为长时间的自旋会导致 CPU 资源被大量占用,影响其他线程的执行,此时应该考虑使用其他更适合的同步机制,如互斥锁。

自旋锁代码示例:

#include <linux/spinlock.h>#include <linux/module.h>#include <linux/kthread.h>#include <linux/delay.h>// 定义自旋锁spinlock_t my_spinlock;// 共享资源:一个全局计数器int shared_counter = 0;// 线程退出标志static int stop_thread = 0;// 线程函数:使用自旋锁保护共享资源staticintspinlock_thread_func(void *data){    unsigned long flags; // 用于保存中断状态    while (!stop_thread) {        // 1. 获取自旋锁,同时禁止本地中断(避免中断引发竞态)        spin_lock_irqsave(&my_spinlock, flags);        // 临界区:访问共享资源(耗时极短,符合自旋锁适用场景)        shared_counter++;        printk("线程%s:共享计数器 = %d\n", (char*)data, shared_counter);        // 2. 释放自旋锁,恢复本地中断        spin_unlock_irqrestore(&my_spinlock, flags);        // 其他操作,降低自旋频率        msleep(50);    }    return 0;}staticint __init spinlock_demo_init(void){    struct task_struct *thread1, *thread2;    // 初始化自旋锁    spin_lock_init(&my_spinlock);    // 创建两个线程,并发访问共享资源    thread1 = kthread_run(spinlock_thread_func, "thread1""thread1");    thread2 = kthread_run(spinlock_thread_func, "thread2""thread2");    // 让线程运行2秒    msleep(2000);    // 停止线程    stop_thread = 1;    // 等待线程退出    kthread_stop(thread1);    kthread_stop(thread2);    printk("自旋锁示例结束,共享计数器最终值:%d\n", shared_counter);    return 0;}staticvoid __exit spinlock_demo_exit(void){    printk("自旋锁示例退出\n");}module_init(spinlock_demo_init);module_exit(spinlock_demo_exit);MODULE_LICENSE("GPL");// 补充:非阻塞自旋锁(try_lock)示例inttry_spinlock_demo(void){    unsigned long flags;    // 尝试获取自旋锁,成功返回1,失败返回0(不自旋)    if (spin_trylock_irqsave(&my_spinlock, flags)) {        // 临界区操作        shared_counter++;        // 释放锁        spin_unlock_irqrestore(&my_spinlock, flags);        return 1// 获取锁成功    } else {        return 0// 获取锁失败,可做其他处理    }}

示例中使用spin_lock_irqsave和spin_unlock_irqrestore,在获取自旋锁的同时禁止本地中断,避免中断服务程序与线程竞争共享资源;两个内核线程并发访问shared_counter,通过自旋锁保护临界区,确保计数准确。补充的spin_trylock_irqsave是非阻塞接口,适合不希望线程自旋等待的场景。

自旋锁适用于锁被持有时间较短的场景 。在多核处理器的共享缓存管理中,当多个 CPU 核心需要访问共享缓存中的数据时,由于对缓存的访问操作通常非常快速,使用自旋锁可以避免线程上下文切换带来的开销,提高系统的并发性能。但如果锁被长时间持有,自旋锁会导致线程在原地不断自旋,浪费大量的 CPU 资源,降低系统的整体性能。因此,在锁持有时间较长的情况下,如文件系统的复杂操作、数据库的事务处理等场景,自旋锁就不太适用了 。

2.3互斥锁(Mutex)

互斥锁,全称为 “互斥量”,是一种广泛应用于多线程编程中的同步工具,它的主要作用是确保在同一时刻,只有一个线程能够访问被保护的共享资源,就像一把独特的锁,一次只允许一个人进入房间。这种特性使得互斥锁成为解决多线程环境下资源竞争问题的关键手段。

在 Linux 内核中,互斥锁遵循严格的使用规则,这些规则就像是交通规则一样,确保了多线程环境下的有序性。互斥锁的使用规则是:任何试图访问共享资源的线程,都必须先获取互斥锁。当一个线程成功获取到互斥锁后,它就拥有了对共享资源的独占访问权,其他线程如果也想访问该共享资源,必须等待当前持有锁的线程释放互斥锁 。这种先获取锁再访问资源,使用完资源后释放锁的模式,有效地避免了多个线程同时访问共享资源时可能出现的竞态条件,保证了数据的一致性和完整性。

Linux 内核为互斥锁提供了一系列的接口函数,这些函数就像是操作互斥锁的钥匙,开发者可以通过它们来灵活地控制互斥锁的行为。mutex_init函数用于初始化一个互斥锁,就像为一把新锁设置初始状态;mutex_lock函数是获取互斥锁的关键函数,当一个线程调用mutex_lock时,如果互斥锁当前处于未被占用的状态,线程会立即获取锁并继续执行后续代码;如果互斥锁已被其他线程持有,调用mutex_lock的线程会被阻塞,进入睡眠状态,直到持有锁的线程释放互斥锁,此时被阻塞的线程才会被唤醒,并尝试获取锁 。

mutex_unlock函数用于释放互斥锁,当线程完成对共享资源的访问后,调用该函数将锁释放,通知其他等待的线程可以尝试获取锁 。mutex_trylock函数是一个非阻塞的尝试获取互斥锁的函数,如果互斥锁可用,它会立即获取锁并返回非零值,表示获取成功;如果互斥锁已被占用,它不会阻塞线程,而是直接返回零值,表示获取失败 。

以一个文件系统中的文件读写操作为例,假设多个线程可能同时尝试对同一个文件进行读写操作。由于文件是一种共享资源,如果没有适当的同步机制,多个线程同时读写文件可能会导致数据混乱,比如一个线程正在写入文件时,另一个线程进行读取,可能会读到不完整的数据;或者多个线程同时写入文件,可能会导致数据覆盖和丢失。为了避免这些问题,可以使用互斥锁来保护文件的访问。

当一个线程需要对文件进行读写操作时,它首先调用mutex_lock函数获取互斥锁。如果此时互斥锁未被其他线程持有,该线程就能顺利获取锁,然后安全地对文件进行读写操作。在操作期间,其他线程如果也尝试获取该互斥锁,由于锁已被占用,它们会被阻塞,进入睡眠状态。直到持有锁的线程完成对文件的读写操作,调用mutex_unlock函数释放互斥锁,此时被阻塞的线程才会被唤醒,并尝试获取锁来访问文件 。

互斥锁与自旋锁在特性和适用场景上存在明显的差异。自旋锁在获取锁时,如果锁已被占用,线程会在原地自旋等待,不会进入睡眠状态,因此适用于锁被持有时间较短的场景,这样可以避免线程上下文切换带来的开销。而互斥锁在获取锁时,如果锁已被占用,线程会被阻塞进入睡眠状态,直到锁被释放才会被唤醒,这种方式虽然会带来线程上下文切换的开销,但它不会像自旋锁那样浪费 CPU 资源,因此更适合用于保护长临界区资源,即对共享资源的访问操作需要较长时间的场景 。在实际应用中,开发者需要根据具体的场景和需求,选择合适的同步机制来确保系统的高效稳定运行。

互斥锁代码示例:

#include <linux/mutex.h>#include <linux/module.h>#include <linux/kthread.h>#include <linux/delay.h>// 定义互斥锁struct mutex my_mutex;// 共享资源:一个需要长时间操作的文件缓冲区char file_buffer[1024] = {0};// 线程退出标志static int stop_thread = 0;// 线程函数:使用互斥锁保护长临界区staticintmutex_thread_func(void *data){    while (!stop_thread) {        // 1. 获取互斥锁:如果锁被占用,线程进入睡眠状态        mutex_lock(&my_mutex);        // 临界区:模拟长时间操作(如文件读写),符合互斥锁适用场景        printk("线程%s:开始操作文件缓冲区\n", (char*)data);        // 耗时操作(100ms,远超自旋锁适合的时间)        msleep(100);        // 写入数据到缓冲区        snprintf(file_buffer, sizeof(file_buffer), "线程%s写入的数据", (char*)data);        printk("线程%s:操作完成,缓冲区内容:%s\n", (char*)data, file_buffer);        // 2. 释放互斥锁:唤醒等待的线程        mutex_unlock(&my_mutex);        // 线程其他工作        msleep(50);    }    return 0;}staticint __init mutex_demo_init(void){    struct task_struct *thread1, *thread2;    // 初始化互斥锁    mutex_init(&my_mutex);    // 创建两个线程,并发访问共享缓冲区    thread1 = kthread_run(mutex_thread_func, "thread1""thread1");    thread2 = kthread_run(mutex_thread_func, "thread2""thread2");    // 让线程运行3秒    msleep(3000);    // 停止线程    stop_thread = 1;    // 等待线程退出    kthread_stop(thread1);    kthread_stop(thread2);    printk("互斥锁示例结束\n");    return 0;}staticvoid __exit mutex_demo_exit(void){    printk("互斥锁示例退出\n");}module_init(mutex_demo_init);module_exit(mutex_demo_exit);MODULE_LICENSE("GPL");// 补充:非阻塞互斥锁(try_lock)示例inttry_mutex_demo(void){    // 尝试获取互斥锁,成功返回1,失败返回0(不阻塞)    if (mutex_trylock(&my_mutex)) {        // 临界区操作        snprintf(file_buffer, sizeof(file_buffer), "非阻塞操作写入");        // 释放锁        mutex_unlock(&my_mutex);        return 1// 获取锁成功    } else {        return 0// 获取锁失败,可做其他处理    }}

示例中互斥锁保护的临界区包含msleep(100)的耗时操作,符合互斥锁“保护长临界区”的适用场景;两个线程并发访问file_buffer,通过mutex_lock和mutex_unlock确保同一时刻只有一个线程操作缓冲区,避免数据混乱。补充的mutex_trylock是非阻塞接口,适合不需要线程等待的场景。

互斥锁则更适合用于保护长临界区资源,即对共享资源的访问操作需要较长时间的场景 。在数据库管理系统中,当一个事务需要对多个数据表进行复杂的读写操作时,使用互斥锁可以确保在事务执行期间,其他事务不会干扰当前事务的操作,保证数据的一致性和完整性。与自旋锁不同,互斥锁在获取锁时,如果锁已被占用,线程会被阻塞进入睡眠状态,直到锁被释放才会被唤醒,这种方式虽然会带来线程上下文切换的开销,但它不会像自旋锁那样浪费 CPU 资源 。

2.4信号量(Semaphore)

信号量是一种通用且强大的线程同步机制,在 Linux 内核以及多线程编程领域发挥着关键作用。其核心原理基于一个整型的计数器,这个计数器就像是一个资源的库存记录器,用于表示可用资源的数量。信号量主要通过两个基本的原子操作来控制对共享资源的访问,这两个操作分别是P操作(在 Linux 内核中通常用down函数表示)和V操作(通常用up函数表示) 。

当一个线程想要访问共享资源时,它会执行P操作。在P操作中,首先会将信号量的计数器值减 1 。如果此时计数器的值大于等于 0,说明还有可用资源,线程就可以继续执行,访问共享资源;但如果计数器的值小于 0,这意味着资源已经被其他线程全部占用,当前线程就会被阻塞,进入等待队列,等待其他线程释放资源 。可以把这个过程想象成在一个图书馆借书,信号量的计数器就代表图书馆中某类书籍的剩余数量。当一个读者想要借这类书时(线程执行P操作),如果还有剩余书籍(计数器大于等于 0),读者就可以顺利借到书并阅读(线程访问共享资源);如果没有剩余书籍(计数器小于 0),读者就需要在图书馆的等待区等待(线程进入等待队列) 。

当一个线程完成对共享资源的访问后,会执行V操作。在V操作中,会将信号量的计数器值加 1 。如果此时等待队列中有线程在等待资源,那么就会唤醒等待队列中的一个线程,让它有机会获取资源并执行 。继续以上述图书馆为例,当一个读者看完书并归还(线程执行V操作)时,图书馆的书籍数量增加(计数器加 1),如果有其他读者在等待借这本书(等待队列中有线程),图书馆工作人员就会通知等待的读者来借书(唤醒等待队列中的一个线程) 。

在 Linux 内核中,信号量提供了丰富的接口函数来支持其功能。sem_init函数用于初始化一个信号量,设置其初始的计数值,就像在图书馆开放前,先统计好各类书籍的初始数量;down函数就是前面提到的P操作,用于尝试获取资源;up函数即V操作,用于释放资源;down_interruptible函数与down函数类似,但它可以被信号中断,在某些需要响应外部信号的场景中非常有用 。

以管理一个缓冲区池为例,假设系统中有一个固定大小的缓冲区池,用于存储临时数据。每个缓冲区都可以看作是一个共享资源,而信号量可以用来控制对这些缓冲区的访问。可以将信号量的初始计数值设置为缓冲区池中的缓冲区数量。当一个线程需要使用缓冲区时,它调用down函数进行P操作,如果信号量的计数值大于等于 0,说明有可用的缓冲区,线程就可以获取一个缓冲区并使用;如果计数值小于 0,线程就会被阻塞,等待其他线程释放缓冲区 。当线程使用完缓冲区后,调用up函数进行V操作,将信号量的计数值加 1 ,如果有其他线程在等待缓冲区,就会唤醒其中一个线程 。

信号量与互斥锁既有区别又有联系。联系在于,它们都用于多线程环境下的同步控制,以保护共享资源的安全访问。区别主要体现在资源数量的控制上。互斥锁本质上是一种特殊的二元信号量,它只允许一个线程访问共享资源,相当于信号量的计数值固定为 1 。而信号量可以灵活地控制多个资源的访问,其计数值可以根据实际情况设置为任意正整数,适用于管理多个相同类型的共享资源的场景,比如前面提到的缓冲区池管理 。在实际应用中,开发者需要根据具体的需求来选择使用信号量还是互斥锁,以实现高效的多线程同步控制。

信号量代码示例:

#include <linux/semaphore.h>#include <linux/module.h>#include <linux/kthread.h>#include <linux/delay.h>#include <linux/slab.h>// 定义缓冲区结构体struct buffer {    char data[256];    struct buffer *next;};// 信号量:控制可用缓冲区数量struct semaphore buf_sem;// 缓冲区池头节点struct buffer *buf_pool = NULL;// 线程退出标志static int stop_thread = 0;// 初始化缓冲区池(创建3个缓冲区)staticvoidinit_buf_pool(void){    struct buffer *buf1, *buf2, *buf3;    // 分配缓冲区内存    buf1 = kmalloc(sizeof(struct buffer), GFP_KERNEL);    buf2 = kmalloc(sizeof(struct buffer), GFP_KERNEL);    buf3 = kmalloc(sizeof(struct buffer), GFP_KERNEL);    // 初始化缓冲区数据    memset(buf1->data, 0sizeof(buf1->data));    memset(buf2->data, 0sizeof(buf2->data));    memset(buf3->data, 0sizeof(buf3->data));    // 链表连接缓冲区    buf1->next = buf2;    buf2->next = buf3;    buf3->next = NULL;    buf_pool = buf1;    // 初始化信号量:计数值 = 缓冲区数量(3个)    sema_init(&buf_sem, 3);}// 申请缓冲区(P操作:获取资源)static struct buffer *get_buffer(const char *thread_name) {    struct buffer *buf = NULL;    // P操作:信号量减1,无可用资源则阻塞    down(&buf_sem);    // 从缓冲区池取出一个缓冲区    if (buf_pool) {        buf = buf_pool;        buf_pool = buf->next;        snprintf(buf->data, sizeof(buf->data), "%s使用缓冲区", thread_name);        printk("%s:获取缓冲区,内容:%s\n", thread_name, buf->data);    }    return buf;}// 释放缓冲区(V操作:释放资源)staticvoidput_buffer(struct buffer *buf, constchar *thread_name){    if (!buf) return;    // 将缓冲区放回缓冲区池    buf->next = buf_pool;    buf_pool = buf;    printk("%s:释放缓冲区\n", thread_name);    // V操作:信号量加1,唤醒等待的线程    up(&buf_sem);}// 线程函数:使用信号量管理缓冲区staticintsemaphore_thread_func(void *data){    const char *thread_name = (char*)data;    struct buffer *buf;    while (!stop_thread) {        // 申请缓冲区(P操作)        buf = get_buffer(thread_name);        if (buf) {            // 使用缓冲区(耗时操作)            msleep(150);            // 释放缓冲区(V操作)            put_buffer(buf, thread_name);        }        // 其他工作        msleep(50);    }    return 0;}staticint __init semaphore_demo_init(void){    struct task_struct *thread1, *thread2, *thread3, *thread4;    // 初始化缓冲区池和信号量    init_buf_pool();    // 创建4个线程(超过缓冲区数量3个),资源竞争    thread1 = kthread_run(semaphore_thread_func, "thread1""thread1");    thread2 = kthread_run(semaphore_thread_func, "thread2""thread2");    thread3 = kthread_run(semaphore_thread_func, "thread3""thread3");    thread4 = kthread_run(semaphore_thread_func, "thread4""thread4");    // 让线程运行4秒    msleep(4000);    // 停止线程    stop_thread = 1;    // 等待线程退出    kthread_stop(thread1);    kthread_stop(thread2);    kthread_stop(thread3);    kthread_stop(thread4);    printk("信号量示例结束\n");    return 0;}staticvoid __exit semaphore_demo_exit(void){    // 释放缓冲区池内存    struct buffer *tmp;    while (buf_pool) {        tmp = buf_pool;        buf_pool = buf_pool->next;        kfree(tmp);    }    printk("信号量示例退出\n");}module_init(semaphore_demo_init);module_exit(semaphore_demo_exit);MODULE_LICENSE("GPL");

示例缓冲区池管理场景,信号量初始计数值为3(3个缓冲区),4个线程并发申请缓冲区,通过down(P操作)和up(V操作)控制资源访问;当缓冲区耗尽时,线程会阻塞等待,直到有线程释放缓冲区,完美体现信号量“管理多个相同资源”的核心作用。

信号量在管理多个相同类型的共享资源时具有明显的优势 。在网络服务器中,当有多个客户端同时请求网络连接时,服务器可以使用信号量来控制并发连接的数量,确保系统不会因为过多的连接请求而导致资源耗尽。信号量还可以用于实现生产者 - 消费者模型,通过控制缓冲区的空槽和满槽数量,协调生产者和消费者的工作 。与互斥锁相比,信号量更加灵活,它可以根据实际需求控制多个资源的访问,而互斥锁只能用于保护单一的共享资源。

2.5读写锁(Read - Write Lock)

读写锁是一种特殊的同步机制,它专门针对数据的读取和写入操作进行了优化,以提高多线程环境下的并发性能。在许多实际应用场景中,对数据的访问往往具有读多写少的特点,例如在数据库查询、文件读取等操作中,大量的线程可能同时需要读取数据,而只有少数线程会进行数据的写入操作 。读写锁正是为了满足这种场景需求而设计的。

读写锁的特性主要体现在对读操作和写操作的不同处理方式上。对于读操作,读写锁允许多个线程同时获取读锁,因为读操作不会修改数据,多个线程同时读取数据不会产生竞态条件,所以可以并发执行,这大大提高了读操作的并发性能。例如,在一个新闻网站的后台系统中,有大量的用户线程同时请求读取新闻内容,使用读写锁时,这些读线程可以同时获取读锁,并发地读取新闻数据,从而快速响应用户的请求 。

而对于写操作,读写锁则要求在同一时刻只能有一个线程能够获取写锁。这是因为写操作会修改数据,如果多个线程同时进行写操作,或者一个线程在写数据时其他线程进行读操作,都可能导致数据不一致的问题。例如,在电商系统中,当一个线程对商品库存进行更新(写操作)时,必须保证此时没有其他线程同时读取或修改该库存数据,否则可能会出现库存数量错误的情况 。

Linux 内核为读写锁提供了一系列的接口函数,以方便开发者使用。rwlock_init函数用于初始化一个读写锁,为其设置初始状态;read_lock函数用于获取读锁,当一个线程调用read_lock时,如果没有其他线程持有写锁,该线程就可以成功获取读锁,从而进行读操作;read_unlock函数用于释放读锁,当线程完成读操作后,调用该函数释放读锁,以便其他线程可以获取;write_lock函数用于获取写锁,当一个线程调用write_lock时,如果没有其他线程持有读锁或写锁,该线程可以获取写锁进行写操作;write_unlock函数用于释放写锁,当线程完成写操作后,调用该函数释放写锁 。

在读取操作频繁、写操作较少的场景中,读写锁的优势尤为明显。比如在一个分布式缓存系统中,大量的客户端线程会频繁地读取缓存中的数据,而只有在数据更新时才会有写操作。使用读写锁可以让多个读线程同时访问缓存,大大提高了缓存的读取效率,减少了读操作的等待时间。同时,当有写操作发生时,读写锁能够保证写操作的原子性和数据的一致性,避免了读操作和写操作之间的竞态条件,确保了缓存系统的稳定运行 。

读写锁代码示例:

#include <linux/rwlock.h>#include <linux/module.h>#include <linux/kthread.h>#include <linux/delay.h>// 定义读写锁rwlock_t my_rwlock;// 共享资源:缓存数据(读多写少)char cache_data[1024] = "初始缓存数据";// 线程退出标志static int stop_thread = 0;// 读线程函数:获取读锁,读取缓存staticintread_thread_func(void *data){    const char *thread_name = (char*)data;    while (!stop_thread) {        // 1. 获取读锁:允许多个读线程同时获取        read_lock(&my_rwlock);        // 临界区:读取缓存(读操作,无修改)        printk("%s:读取缓存,内容:%s\n", thread_name, cache_data);        // 读操作耗时        msleep(50);        // 2. 释放读锁        read_unlock(&my_rwlock);        // 读线程空闲时间        msleep(100);    }    return 0;}// 写线程函数:获取写锁,更新缓存staticintwrite_thread_func(void *data){    const char *thread_name = (char*)data;    static int count = 0;    while (!stop_thread) {        // 1. 获取写锁:同一时刻只能有一个写线程获取        write_lock(&my_rwlock);        // 临界区:更新缓存(写操作,修改数据)        count++;        snprintf(cache_data, sizeof(cache_data), "更新后的缓存数据:%d", count);        printk("%s:更新缓存,新内容:%s\n", thread_name, cache_data);        // 写操作耗时        msleep(200);        // 2. 释放写锁        write_unlock(&my_rwlock);        // 写线程空闲时间(写操作频率低于读操作)        msleep(1000);    }    return 0;}staticint __init rwlock_demo_init(void){    struct task_struct *read1, *read2, *read3, *write1;    // 初始化读写锁    rwlock_init(&my_rwlock);    // 创建3个读线程(读多)和1个写线程(写少)    read1 = kthread_run(read_thread_func, "read_thread1""read_thread1");    read2 = kthread_run(read_thread_func, "read_thread2""read_thread2");    read3 = kthread_run(read_thread_func, "read_thread3""read_thread3");    write1 = kthread_run(write_thread_func, "write_thread1""write_thread1");    // 让线程运行5秒    msleep(5000);    // 停止线程    stop_thread = 1;    // 等待线程退出    kthread_stop(read1);    kthread_stop(read2);    kthread_stop(read3);    kthread_stop(write1);    printk("读写锁示例结束\n");    return 0;}staticvoid __exit rwlock_demo_exit(void){    printk("读写锁示例退出\n");}module_init(rwlock_demo_init);module_exit(rwlock_demo_exit);MODULE_LICENSE("GPL");

示例“读多写少”场景,3个读线程并发获取读锁,同时读取缓存数据,互不干扰;1个写线程获取写锁时,所有读线程和其他写线程都会阻塞,确保写操作的原子性。写线程更新缓存后,读线程读取到的是最新数据,完美体现读写锁的核心优势。

读写锁在读取操作频繁、写操作较少的场景中能够显著提高并发性能 。在分布式文件系统中,大量的客户端可能同时请求读取文件内容,而只有少数客户端会进行文件的写入操作。使用读写锁可以让多个读线程同时获取读锁,并发地读取文件数据,大大提高了文件系统的读取效率。同时,当有写操作发生时,读写锁能够保证写操作的原子性和数据的一致性,避免了读操作和写操作之间的竞态条件 。

2.6RCU 机制(Read - Copy - Update)

RCU(Read - Copy - Update)机制,即读 - 复制 - 更新机制,是 Linux 内核中一种非常独特且高效的同步机制,它主要用于解决在高并发读场景下的同步问题,尤其适用于那些读操作远远多于写操作的应用场景。

RCU 机制的核心原理基于一个巧妙的设计思想。在 RCU 中,对于读操作,它允许在没有任何锁保护的情况下进行,这是因为读操作不会修改数据,所以不会产生竞态条件。这就好比在一个图书馆里,众多读者可以自由地浏览书籍(读操作),不需要额外的限制。而对于写操作,当一个线程需要修改共享数据时,它并不会直接在原数据上进行修改,而是先复制一份原数据,然后在这份副本上进行修改 。这就如同在图书馆中,工作人员要修改某本书的内容时,不是直接在原书上修改,而是先复印一份,在复印件上修改。

修改完成后,写线程并不会立即将新的数据替换旧数据,而是等待所有正在进行的读操作完成。这个等待过程是通过一个称为 “宽限期(Grace Period)” 的机制来实现的。在宽限期内,所有已经开始的读操作都有足够的时间完成,确保它们读取到的是旧数据。当宽限期结束后,写线程才会将新的数据替换旧数据,完成数据的更新 。这就好比工作人员在确认所有读者都已经读完相关内容后,才将修改后的复印件替换原书。

Linux 内核为 RCU 机制提供了一系列核心接口函数,这些函数是实现 RCU 同步的关键工具。rcu_read_lock和rcu_read_unlock用于标记读临界区,rcu_assign_pointer用于原子地更新指针(写操作),rcu_dereference用于安全地读取 RCU 保护的指针(读操作),而synchronize_rcu则用于等待宽限期结束,确保所有正在进行的读操作完成。

RCU机制代码示例:

#include <linux/rcupdate.h>#include <linux/module.h>#include <linux/kthread.h>#include <linux/delay.h>#include <linux/slab.h>// 定义RCU保护的数据结构(高并发读的缓存节点)struct cache_node {    int id;    char data[64];};// RCU保护的全局指针(指向当前缓存节点)static struct cache_node __rcu *g_cache_node = NULL;// 线程退出标志static int stop_thread = 0;// 写线程函数:更新RCU保护的缓存节点(写操作)staticintrcu_write_thread(void *data){    struct cache_node *new_node, *old_node;    static int id = 0;    while (!stop_thread) {        // 1. 分配新的缓存节点,初始化数据        new_node = kmalloc(sizeof(struct cache_node), GFP_KERNEL);        if (!new_node) {            msleep(100);            continue;        }        id++;        new_node->id = id;        snprintf(new_node->data, sizeof(new_node->data), "RCU缓存数据:%d", id);        // 2. 原子更新RCU指针(写操作,不阻塞读线程)        rcu_assign_pointer(g_cache_node, new_node);        printk("写线程:更新RCU缓存,id=%d,data=%s\n", new_node->id, new_node->data);        // 3. 等待宽限期结束,确保所有读线程完成对旧节点的读取        synchronize_rcu();        // 释放旧节点内存(宽限期结束后,无读线程使用旧节点)        old_node = new_node;        kfree(old_node);        // 写操作频率(低频率写)        msleep(2000);    }    return 0;}// 读线程函数:读取RCU保护的缓存节点(读操作,无锁)staticintrcu_read_thread(void *data){    const char *thread_name = (char*)data;    struct cache_node *node;    while (!stop_thread) {        // 1. 标记RCU读临界区(无锁,不阻塞任何操作)        rcu_read_lock();        // 2. 安全读取RCU指针(确保读取到完整数据)        node = rcu_dereference(g_cache_node);        if (node) {            printk("%s:读取RCU缓存,id=%d,data=%s\n", thread_name, node->id, node->data);        } else {            printk("%s:RCU缓存未初始化\n", thread_name);        }        // 3. 结束RCU读临界区        rcu_read_unlock();        // 高并发读(频繁读)        msleep(100);    }    return 0;}staticint __init rcu_demo_init(void){    struct task_struct *read1, *read2, *read3, *read4, *write1;    // 初始化RCU保护的缓存节点    struct cache_node *init_node = kmalloc(sizeof(struct cache_node), GFP_KERNEL);    init_node->id = 0;    snprintf(init_node->data, sizeof(init_node->data), "初始RCU缓存数据");    rcu_assign_pointer(g_cache_node, init_node);    // 创建4个读线程(高并发读)和1个写线程(低频率写)    read1 = kthread_run(rcu_read_thread, "read_thread1""read_thread1");    read2 = kthread_run(rcu_read_thread, "read_thread2""read_thread2");    read3 = kthread_run(rcu_read_thread, "read_thread3""read_thread3");    read4 = kthread_run(rcu_read_thread, "read_thread4""read_thread4");    write1 = kthread_run(rcu_write_thread, NULLNULL);    // 让线程运行8秒    msleep(8000);    // 停止线程    stop_thread = 1;    // 等待线程退出    kthread_stop(read1);    kthread_stop(read2);    kthread_stop(read3);    kthread_stop(read4);    kthread_stop(write1);    // 释放最后一个缓存节点    synchronize_rcu();    kfree(rcu_dereference(g_cache_node));    printk("RCU机制示例结束\n");    return 0;}staticvoid __exit rcu_demo_exit(void){    printk("RCU机制示例退出\n");}module_init(rcu_demo_init);module_exit(rcu_demo_exit);MODULE_LICENSE("GPL");

示例高并发读场景,4个读线程通过rcu_read_lock进入读临界区,无锁读取缓存数据,互不阻塞;1个写线程通过rcu_assign_pointer原子更新缓存指针,通过synchronize_rcu等待宽限期结束后释放旧节点,确保读线程能安全读取旧数据,写操作不阻塞读操作,体现RCU机制的高效性。

在 Linux 内核的同步机制中,不同的机制各有其独特的特点和适用场景,就像各种不同类型的工具,只有在合适的场景下使用才能发挥最大的效能。在实际的内核开发和应用中,根据具体的需求选择合适的同步机制至关重要,这不仅关系到系统的性能和稳定性,还可能影响到整个系统的架构设计和实现。

RCU 机制在高并发读场景下表现卓越 。在大型数据库的查询系统中,由于读操作远远多于写操作,使用 RCU 机制可以让读操作在没有任何锁保护的情况下进行,大大提高了查询的并发性能。同时,RCU 机制通过巧妙的写操作设计和宽限期机制,确保了数据的一致性和完整性 。然而,RCU 机制的实现相对复杂,需要开发者对其原理有深入的理解,并且在使用过程中需要谨慎处理,以避免出现数据错误和内存泄漏等问题 。

在实际的 Linux 内核开发和应用中,开发者需要根据具体的场景和需求,综合考虑各种同步机制的特点和适用范围,选择最合适的同步机制来确保系统的高效稳定运行。有时候,还可能需要结合多种同步机制,以满足复杂的并发控制需求 。例如,在一个复杂的设备驱动程序中,可能会同时使用原子操作来保证对硬件寄存器的安全访问,使用自旋锁来保护对共享数据结构的短暂访问,使用互斥锁来保护对长临界区资源的访问,使用信号量来管理多个相同类型的共享资源,以及使用读写锁来提高对读多写少数据的访问性能 。通过合理地选择和组合同步机制,可以构建出健壮、高效的 Linux 内核系统,为各种应用提供稳定的运行环境 。

三、死锁问题与避免策略

3.1死锁产生的原因

死锁,简单来说,就是多个执行单元(可以是进程,也可以是线程)在执行过程中,因为争夺资源而陷入一种互相等待的僵局,如果没有外部干预,这些执行单元都将无法继续推进 。在多线程或多进程编程中,死锁是一种常见且棘手的问题,它会导致程序无法正常运行,严重影响系统的性能和稳定性 。

死锁的产生必须同时满足四个必要条件,这四个条件就像是四个紧密相连的环节,缺一不可。只要打破其中任何一个条件,死锁就不会发生 。

  1. 互斥条件:这是指资源一次只能被一个执行单元占用,其他执行单元若要使用该资源,必须等待当前占用者释放 。例如,在一个打印机共享的环境中,同一时刻只能有一个进程能够使用打印机进行打印任务,其他进程必须等待打印机被释放后才能使用 。
  2. 持有并等待条件:一个执行单元在持有至少一个资源的同时,又在等待获取其他被占用的资源 。就好比一个人手里已经拿着一个苹果,还想要另一个人手中的香蕉,并且在等待香蕉的过程中,不放下自己手中的苹果 。在多线程编程中,一个线程已经获取了某个锁,在等待获取另一个锁的过程中,不会释放已持有的锁,这就满足了持有并等待条件 。
  3. 不可剥夺条件:已分配给执行单元的资源不能被其他执行单元强行剥夺,只能由该执行单元主动释放 。例如,在一个数据库事务中,一个事务获取了某个数据行的锁,其他事务不能强行夺走这个锁,只有持有锁的事务完成操作并主动释放锁后,其他事务才能获取该锁 。
  4. 循环等待条件:存在一个执行单元链,链中的每个执行单元都在等待下一个执行单元所持有的资源,形成一个闭环 。例如,有三个线程 T1、T2 和 T3,T1 等待 T2 持有的资源,T2 等待 T3 持有的资源,T3 又等待 T1 持有的资源,这样就形成了循环等待,导致死锁 。

为了更直观地理解死锁,我们可以用一个生活中的例子来类比。假设有两条单行道,它们在一个十字路口交汇,并且没有交通信号灯。现在有两辆车 A 和 B,A 车在道路 1 上朝着十字路口行驶,B 车在道路 2 上朝着十字路口行驶。当 A 车到达十字路口时,它需要进入道路 2 才能继续前行,但此时 B 车已经在道路 2 上,并且 B 车也需要进入道路 1 才能继续前行。由于没有交通信号灯的协调,A 车和 B 车都不愿意后退,它们都在等待对方先让路,这样就形成了死锁,两辆车都无法继续行驶 。

3.2死锁避免策略

在多线程或多进程编程中,避免死锁是确保程序稳定运行的关键。以下是一些常用的死锁避免策略,这些策略旨在打破死锁产生的四个必要条件,从而防止死锁的发生 。

(1)资源有序分配:这种策略的核心思想是为所有资源分配一个唯一的编号,并规定所有执行单元必须按照编号从小到大的顺序获取资源 。通过这种方式,可以打破死锁产生的循环等待条件 。例如,在一个多线程程序中,有两个锁 lock1 和 lock2,我们可以为它们分别分配编号 1 和 2 。所有线程在获取锁时,都必须先获取编号小的 lock1,再获取编号大的 lock2 。这样,就不会出现线程 A 持有 lock1 等待 lock2,而线程 B 持有 lock2 等待 lock1 的循环等待情况 。在 C++ 中,可以使用std::lock函数来一次性安全地锁定多个互斥量,确保加锁顺序的一致性 。示例代码如下:

#include <mutex>#include <thread>std::mutex m1, m2;voidthread_func(){    // 同时锁定m1和m2,避免死锁    std::lock(m1, m2);    std::lock_guard<std::mutex> lock1(m1, std::adopt_lock);    std::lock_guard<std::mutex> lock2(m2, std::adopt_lock);    // 执行临界区操作}

(2)避免嵌套锁:嵌套锁是指一个执行单元在持有一个锁的同时,又试图获取另一个锁,这种情况容易导致死锁 。为了避免嵌套锁,可以尽量减少锁的使用层次,将相关的操作合并在一个锁的保护范围内 。如果必须使用嵌套锁,要确保所有执行单元获取锁的顺序一致 。例如,在一个复杂的数据库操作中,可能需要对多个数据表进行操作,每个数据表都有对应的锁 。为了避免嵌套锁,可以将对多个数据表的操作封装在一个函数中,在进入函数时获取所有需要的锁,操作完成后再统一释放锁 。

(3)使用超时机制:通过设置锁的获取超时时间,可以避免执行单元无限期地等待锁,从而打破死锁产生的不可剥夺条件 。当一个执行单元尝试获取锁时,如果在规定的时间内未能成功获取,它可以选择放弃等待,并释放已持有的资源 。在 C++ 中,可以使用std::timed_mutex的try_lock_for方法来实现超时机制,指定超时时长,避免线程无限等待。示例代码如下:

#include <mutex>#include <thread>#include <chrono>#include <iostream>// 定义定时互斥锁(支持超时)std::timed_mutex lock1, lock2;void thread_func1() {    // 尝试获取lock1,超时时间1秒    if (lock1.try_lock_for(std::chrono::seconds(1))) {        try {            // 临界区前的耗时操作            std::this_thread::sleep_for(std::chrono::milliseconds(200));            // 尝试获取lock2,超时时间1秒            if (lock2.try_lock_for(std::chrono::seconds(1))) {                try {                    std::cout << "Thread 1: Both locks acquired" << std::endl;                } finally {                    lock2.unlock(); // 释放lock2                }            } else {                std::cout << "Thread 1: Failed to acquire lock2, releasing lock1" << std::endl;            }        } finally {            lock1.unlock(); // 释放lock1        }    } else {        std::cout << "Thread 1: Failed to acquire lock1" << std::endl;    }}void thread_func2() {    // 尝试获取lock2,超时时间1秒    if (lock2.try_lock_for(std::chrono::seconds(1))) {        try {            // 模拟临界区前的耗时操作            std::this_thread::sleep_for(std::chrono::milliseconds(200));            // 尝试获取lock1,超时时间1秒            if (lock1.try_lock_for(std::chrono::seconds(1))) {                try {                    std::cout << "Thread 2: Both locks acquired" << std::endl;                } finally {                    lock1.unlock(); // 释放lock1                }            } else {                std::cout << "Thread 2: Failed to acquire lock1, releasing lock2" << std::endl;            }        } finally {            lock2.unlock(); // 释放lock2        }    } else {        std::cout << "Thread 2: Failed to acquire lock2" << std::endl;    }}int main() {    std::thread t1(thread_func1);    std::thread t2(thread_func2);    t1.join();    t2.join();    return 0;}

在上述代码中,try_lock_for(std::chrono::seconds(1))表示尝试获取锁,如果在 1 秒内未能获取,则返回false 。通过这种方式,当线程无法在规定时间内获取锁时,可以及时放弃等待,释放已持有的锁,避免死锁的发生 。

四、Linux内核同步机制实战案例

4.1进程间共享内存冲突解决

(1)案例问题描述:某服务器部署多进程数据处理程序,多个进程需同时读写同一块共享内存(存储实时业务数据),未使用同步机制时,频繁出现数据错乱(如数据覆盖、读取异常),导致业务计算结果出错。

解决方案:使用Linux内核互斥锁(mutex),在进程读写共享内存前获取锁,操作完成后释放锁,确保同一时刻只有一个进程能访问共享内存。通过内核态互斥锁的阻塞机制,避免并发读写冲突,同时设置锁超时时间,防止死锁,最终实现数据读写的一致性,解决业务异常问题。

(2)解决问题具体实现步骤如下:首先,在程序中定义一个互斥锁变量,这就好比准备好一把 “锁”。当一个进程要读写共享内存前,调用相应的函数来获取互斥锁,例如使用pthread_mutex_lock函数,这一步就像是尝试去拿锁。如果此时锁没有被其他进程持有,该进程就能成功拿到锁,进而安全地对共享内存进行读写操作;在完成对共享内存的操作后,进程必须调用pthread_mutex_unlock函数释放互斥锁,相当于归还这把 “锁”,以便其他进程能够获取锁并访问共享内存。同时,为了防止死锁的发生,设置锁超时时间是非常关键的。可以使用pthread_mutex_timedlock函数来设置一个超时时间,如果在指定的时间内进程未能获取到锁,那么函数会返回一个错误,进程可以根据这个错误进行相应的处理,比如放弃本次操作或者进行重试,这样就避免了进程因为无限期等待锁而陷入死锁的困境。

进程间共享内存+互斥锁同步示例(解决数据错乱问题)如下:

#include <stdio.h>#include <stdlib.h>#include <string.h>#include <pthread.h>#include <sys/shm.h>#include <sys/ipc.h>#include <sys/types.h>#include <unistd.h>#include <errno.h>#include <time.h>// 共享内存 key(自定义,确保唯一)#define SHM_KEY 0x123456// 共享内存大小(存储业务数据,这里模拟订单信息)#define SHM_SIZE 1024// 互斥锁名字(进程间共享互斥锁需指定名字)#define MUTEX_NAME "share_mem_mutex"// 定义共享内存数据结构(模拟实时业务数据)typedef struct {    int order_id;       // 订单ID    int stock;          // 库存数量    pthread_mutex_t mutex; // 进程间共享互斥锁} ShareData;intmain(){    int shmid;    ShareData *share_data;    pthread_mutexattr_t mutex_attr;    struct timespec timeout;    // 1. 创建/获取共享内存    shmid = shmget(SHM_KEY, SHM_SIZE, IPC_CREAT | 0666);    if (shmid == -1) {        perror("shmget failed");        exit(EXIT_FAILURE);    }    // 2. 将共享内存映射到当前进程地址空间    share_data = (ShareData *)shmat(shmid, NULL0);    if (share_data == (void *)-1) {        perror("shmat failed");        shmctl(shmid, IPC_RMID, NULL); // 释放共享内存        exit(EXIT_FAILURE);    }    // 3. 初始化互斥锁(进程间共享需设置属性)    pthread_mutexattr_init(&mutex_attr);    // 设置互斥锁为进程间共享(关键:默认互斥锁仅线程间共享)    pthread_mutexattr_setpshared(&mutex_attr, PTHREAD_PROCESS_SHARED);    // 初始化互斥锁(仅在第一个进程初始化,避免重复初始化)    if (fork() == 0) {        // 子进程(另一个并发进程)        sleep(1); // 等待父进程初始化互斥锁    } else {        pthread_mutex_init(&share_data->mutex, &mutex_attr);        // 初始化共享业务数据        share_data->order_id = 0;        share_data->stock = 100// 初始库存100    }    // 4. 多进程并发读写共享内存(这里用父子进程模拟)    for (int i = 0; i < 5; i++) {        // 设置锁超时时间:1秒(避免死锁)        clock_gettime(CLOCK_REALTIME, &timeout);        timeout.tv_sec += 1;        // 尝试获取互斥锁(带超时)        int ret = pthread_mutex_timedlock(&share_data->mutex, &timeout);        if (ret != 0) {            if (ret == ETIMEDOUT) {                printf("进程%d:获取锁超时,放弃本次操作\n"getpid());                continue;            } else {                perror("pthread_mutex_timedlock failed");                break;            }        }        // 临界区:读写共享内存(业务操作)        share_data->order_id++;        share_data->stock--;        printf("进程%d:操作共享内存成功 | 订单ID:%d | 剩余库存:%d\n",               getpid(), share_data->order_id, share_data->stock);        // 释放互斥锁(必须释放,否则其他进程无法获取)        pthread_mutex_unlock(&share_data->mutex);        // 业务处理耗时        sleep(1);    }    // 5. 清理资源    if (getpid() != 0) { // 父进程清理        pthread_mutex_destroy(&share_data->mutex);        shmdt(share_data); // 解除共享内存映射        shmctl(shmid, IPC_RMID, NULL); // 删除共享内存    } else {        shmdt(share_data);    }    pthread_mutexattr_destroy(&mutex_attr);    return 0;}

通过这个案例,我们可以清楚地看到互斥锁在进程间共享内存同步中的关键作用。它就像是一个可靠的 “管家”,有效地协调着多个进程对共享内存的访问,确保数据的安全和一致性。互斥锁适用于那些对数据一致性要求较高,且共享内存访问频率较高的场景,能够帮助开发者轻松应对多进程并发访问带来的挑战,提升程序的稳定性和可靠性。

4.2内核驱动并发访问控制

(1)案例问题描述:开发嵌入式Linux设备驱动时,中断处理程序与用户态进程需同时操作设备寄存器(共享资源),若未做同步控制,会出现寄存器值异常,导致设备驱动崩溃、设备无法正常工作。

解决方案:采用内核自旋锁(spinlock),由于中断处理程序不能睡眠,自旋锁通过“忙等”方式,让未获取锁的执行单元循环等待,直到获取锁后再执行操作,避免中断与进程并发访问冲突,确保寄存器操作的原子性,保障驱动程序稳定运行。

(2)解决问题具体实现步骤如下:首先,在驱动程序中定义一个自旋锁变量,就像准备好一个 “特殊的哨子”,只有拥有这个哨子的人才能进行特定的操作 。使用spin_lock_init函数对自旋锁进行初始化,确保它处于初始的可用状态 。当中断处理程序或用户态进程要操作设备寄存器之前,调用spin_lock函数来获取自旋锁,这就好比吹响哨子,表示自己要开始操作了,其他进程听到哨声后就知道不能来争抢资源了 。如果此时自旋锁已经被其他执行单元持有,调用spin_lock的进程就会进入自旋状态,不断地循环检查锁的状态,直到成功获取锁 。在完成对设备寄存器的操作后,调用spin_unlock函数释放自旋锁,就像放下哨子,告诉其他进程资源可以被争抢了 。

嵌入式Linux设备驱动:中断与进程并发控制(自旋锁应用)

#include <linux/module.h>#include <linux/kernel.h>#include <linux/fs.h>#include <linux/init.h>#include <linux/interrupt.h>#include <linux/spinlock.h>#include <linux/device.h>// 设备寄存器地址(实际开发中替换为真实寄存器地址)#define DEV_REG_ADDR 0x10000000// 设备号(自定义)#define DEV_MAJOR 240#define DEV_NAME "spinlock_demo_dev"// 定义自旋锁(内核态全局变量)spinlock_t dev_spinlock;// 设备类和设备结构体(用于驱动注册)static struct class *dev_class;static struct device *dev_device;// 设备寄存器读写函数staticvoidwrite_reg(unsignedint val){    // 写入数据到寄存器(实际开发中用ioremap映射地址后操作)    *(volatile unsigned int *)DEV_REG_ADDR = val;}staticunsignedintread_reg(void){    // 从寄存器读取数据    return *(volatile unsigned int *)DEV_REG_ADDR;}// 中断处理程序(不能睡眠,必须用自旋锁)staticirqreturn_tdev_irq_handler(int irq, void *dev_id){    unsigned long flags;    unsigned int reg_val;    // 1. 获取自旋锁,同时禁止本地中断(避免中断嵌套引发竞态)    spin_lock_irqsave(&dev_spinlock, flags);    // 2. 临界区:操作设备寄存器(中断处理程序核心逻辑)    reg_val = read_reg(); // 读取寄存器当前值    reg_val += 1// 模拟更新寄存器(如更新中断计数)    write_reg(reg_val); // 写入更新后的值    printk("中断处理程序:更新寄存器值为 %d\n", reg_val);    // 3. 释放自旋锁,恢复本地中断    spin_unlock_irqrestore(&dev_spinlock, flags);    return IRQ_HANDLED;}// 用户态进程调用的read函数(读取设备寄存器)staticssize_tdev_read(struct file *file, char __user *buf, size_t count, loff_t *ppos){    unsigned long flags;    unsigned int reg_val;    int ret;    // 1. 获取自旋锁(用户态进程调用,需保护寄存器访问)    spin_lock_irqsave(&dev_spinlock, flags);    // 2. 临界区:读取设备寄存器    reg_val = read_reg();    printk("用户态进程:读取寄存器值为 %d\n", reg_val);    // 3. 释放自旋锁    spin_unlock_irqrestore(&dev_spinlock, flags);    // 4. 将寄存器值返回给用户态    ret = copy_to_user(buf, &reg_val, sizeof(reg_val));    if (ret != 0) {        return -EFAULT;    }    return sizeof(reg_val);}// 驱动文件操作结构体static struct file_operations dev_fops = {    .owner = THIS_MODULE,    .read = dev_read,};// 驱动初始化函数staticint __init spinlock_demo_init(void){    int ret;    // 1. 初始化自旋锁    spin_lock_init(&dev_spinlock);    // 2. 注册字符设备    ret = register_chrdev(DEV_MAJOR, DEV_NAME, &dev_fops);    if (ret < 0) {        printk("字符设备注册失败\n");        return ret;    }    // 3. 创建设备类和设备节点(用户态可访问)    dev_class = class_create(THIS_MODULE, DEV_NAME);    if (IS_ERR(dev_class)) {        unregister_chrdev(DEV_MAJOR, DEV_NAME);        return PTR_ERR(dev_class);    }    dev_device = device_create(dev_class, NULLMKDEV(DEV_MAJOR, 0), NULL, DEV_NAME);    if (IS_ERR(dev_device)) {        class_destroy(dev_class);        unregister_chrdev(DEV_MAJOR, DEV_NAME);        return PTR_ERR(dev_device);    }    // 4. 注册中断(设备中断,实际开发中替换为真实中断号)    ret = request_irq(10, dev_irq_handler, IRQF_SHARED, DEV_NAME, NULL);    if (ret != 0) {        printk("中断注册失败\n");        device_destroy(dev_class, MKDEV(DEV_MAJOR, 0));        class_destroy(dev_class);        unregister_chrdev(DEV_MAJOR, DEV_NAME);        return ret;    }    printk("自旋锁驱动初始化成功\n");    return 0;}// 驱动退出函数staticvoid __exit spinlock_demo_exit(void){    // 释放中断、设备、自旋锁等资源    free_irq(10NULL);    device_destroy(dev_class, MKDEV(DEV_MAJOR, 0));    class_destroy(dev_class);    unregister_chrdev(DEV_MAJOR, DEV_NAME);    printk("自旋锁驱动退出\n");}module_init(spinlock_demo_init);module_exit(spinlock_demo_exit);MODULE_LICENSE("GPL");MODULE_DESCRIPTION("Spinlock Demo for Device Driver Concurrency Control");

通过这个案例,我们可以清楚地看到自旋锁在嵌入式 Linux 设备驱动并发控制中的关键作用 。自旋锁适用于那些对响应速度要求较高、锁持有时间较短的场景,特别是在中断处理程序中,由于中断处理程序不能睡眠,自旋锁的 “忙等” 机制正好满足了其需求 。与互斥锁相比,自旋锁最大的特点就是不会导致线程睡眠,避免了上下文切换的开销,但同时也会消耗更多的 CPU 资源,因为等待锁的线程会一直占用 CPU 进行自旋 。所以在选择使用自旋锁还是互斥锁时,需要根据具体的应用场景和性能需求来综合考虑,选择最适合的同步机制 。

4.3高并发场景下内核线程同步

(1)案例问题描述:某高并发Web服务器,内核线程需处理大量客户端请求,多个线程争抢有限的内核资源(如网络连接池、IO缓冲区),未同步时出现资源耗尽、线程阻塞堆积,导致服务器响应变慢甚至宕机。

解决方案:使用内核信号量(semaphore),设置资源可用数量,线程获取资源前申请信号量,资源不足时阻塞等待,释放资源时释放信号量,通过信号量的计数机制,实现内核资源的合理分配与线程同步,避免资源争抢,提升服务器并发处理能力与稳定性。

(2)解决问题具体实现步骤如下:首先,初始化内核信号量。根据服务器内核资源的实际情况,设置信号量的初始值,例如,如果网络连接池中有 500 个可用的网络连接,那么就将信号量的初始值设置为 500 。使用sem_init函数来完成信号量的初始化操作,这就像是给 “资源管家” 设定初始的资源数量 。当一个内核线程需要获取网络连接时,它会调用sem_wait函数尝试获取信号量,这就像是向 “资源管家” 申请资源 。如果此时信号量的计数值大于 0,说明有可用的网络连接,线程就能成功获取信号量,同时信号量的计数值减 1,线程可以从网络连接池中获取一个连接进行数据传输等操作 ;但如果信号量的计数值为 0,就表示当前没有可用的网络连接,线程会被阻塞,进入等待队列,等待其他线程释放网络连接 。当一个线程完成对网络连接的使用后,它会调用sem_post函数释放信号量,这就像是将使用完的资源归还给 “资源管家”,信号量的计数值会加 1,如果此时有其他线程在等待获取网络连接,那么等待队列中优先级最高的线程会被唤醒,尝试获取信号量 。

高并发Web服务器:内核线程+信号量同步(管理网络连接池)

// 高并发Web服务器:内核线程+信号量同步(管理网络连接池)#include <linux/module.h>#include <linux/kernel.h>#include <linux/kthread.h>#include <linux/semaphore.h>#include <linux/delay.h>#include <linux/slab.h>// 网络连接池配置#define MAX_CONN 500    // 最大网络连接数(信号量初始值)#define THREAD_NUM 1000 // 内核线程数(模拟高并发)// 定义信号量(管理网络连接池资源)struct semaphore conn_sem;// 网络连接结构体(网络连接)typedef struct {    int conn_id;        // 连接ID    int is_used;        // 连接是否被使用(0:未使用,1:已使用)} NetConn;// 网络连接池(全局)NetConn *conn_pool;// 线程退出标志static int stop_thread = 0;// 初始化网络连接池staticvoidinit_conn_pool(void){    int i;    // 分配连接池内存    conn_pool = kmalloc(sizeof(NetConn) * MAX_CONN, GFP_KERNEL);    if (!conn_pool) {        printk("网络连接池内存分配失败\n");        return;    }    // 初始化每个连接    for (i = 0; i < MAX_CONN; i++) {        conn_pool[i].conn_id = i;        conn_pool[i].is_used = 0;    }    // 初始化信号量:初始值=最大连接数(500),表示有500个可用连接    sema_init(&conn_sem, MAX_CONN);}// 获取网络连接(从连接池取出一个可用连接)static NetConn *get_net_conn(void){    int i;    NetConn *conn = NULL;    // 1. 申请信号量(P操作):信号量减1,无可用资源则阻塞    down(&conn_sem);    // 2. 从连接池找到一个未使用的连接    for (i = 0; i < MAX_CONN; i++) {        if (conn_pool[i].is_used == 0) {            conn_pool[i].is_used = 1;            conn = &conn_pool[i];            break;        }    }    return conn;}// 释放网络连接(将连接放回连接池)staticvoidrelease_net_conn(NetConn *conn){    if (!conn) return;    // 1. 标记连接为未使用    conn->is_used = 0;    // 2. 释放信号量(V操作):信号量加1,唤醒等待的线程    up(&conn_sem);}// 内核线程函数(处理客户端请求,争抢网络连接)staticintconn_thread_func(void *data){    int thread_id = *(int *)data;    NetConn *conn;    while (!stop_thread) {        // 客户端请求到达        msleep(10);        // 2. 获取网络连接(申请信号量)        conn = get_net_conn();        if (conn) {            // 3. 使用网络连接处理请求(耗时操作)            printk("内核线程%d:获取网络连接%d,处理客户端请求\n", thread_id, conn->conn_id);            msleep(50); // 请求处理耗时            // 4. 释放网络连接(释放信号量)            release_net_conn(conn);            printk("内核线程%d:释放网络连接%d\n", thread_id, conn->conn_id);        }    }    kfree(data);    return 0;}// 模块初始化(Web服务器启动)staticint __init semaphore_demo_init(void){    int i, ret;    int *thread_id;    struct task_struct *thread;    // 1. 初始化网络连接池和信号量    init_conn_pool();    if (!conn_pool) {        return -ENOMEM;    }    // 2. 创建1000个内核线程(高并发请求)    for (i = 0; i < THREAD_NUM; i++) {        thread_id = kmalloc(sizeof(int), GFP_KERNEL);        *thread_id = i;        thread = kthread_run(conn_thread_func, thread_id, "conn_thread_%d", i);        if (IS_ERR(thread)) {            printk("创建内核线程%d失败\n", i);            ret = PTR_ERR(thread);            goto err;        }    }    printk("高并发Web服务器启动:%d个内核线程,%d个网络连接\n", THREAD_NUM, MAX_CONN);    return 0;err:    // 异常处理:释放已分配资源    stop_thread = 1;    kfree(conn_pool);    return ret;}// 模块退出staticvoid __exit semaphore_demo_exit(void){    stop_thread = 1;    msleep(1000); // 等待所有线程退出    kfree(conn_pool);    printk("Web服务器退出,释放所有资源\n");}module_init(semaphore_demo_init);module_exit(semaphore_demo_exit);MODULE_LICENSE("GPL");MODULE_DESCRIPTION("Semaphore Demo for High Concurrency Kernel Thread Synchronization");

通过这个案例,我们可以清楚地看到信号量在高并发场景下内核线程同步中的重要作用 。它就像是一座桥梁,连接着多个内核线程和有限的内核资源,通过合理的资源分配和线程同步,使得服务器能够在高并发的浪潮中稳健前行 。信号量适用于那些内核资源有限且需要支持高并发访问的场景,例如 Web 服务器、数据库服务器等 。在这些场景中,信号量可以有效地提高系统的并发处理能力和稳定性,为用户提供更加高效、可靠的服务 。同时,在使用信号量时,需要根据实际情况合理设置信号量的初始值和相关参数,以确保其能够发挥最佳的性能 。

最新文章

随机文章

基本 文件 流程 错误 SQL 调试
  1. 请求信息 : 2026-03-27 21:33:42 HTTP/2.0 GET : https://f.mffb.com.cn/a/478151.html
  2. 运行时间 : 0.081706s [ 吞吐率:12.24req/s ] 内存消耗:5,072.66kb 文件加载:140
  3. 缓存信息 : 0 reads,0 writes
  4. 会话信息 : SESSION_ID=ea281b68252f8bde85323dcd5244266c
  1. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/public/index.php ( 0.79 KB )
  2. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/autoload.php ( 0.17 KB )
  3. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/autoload_real.php ( 2.49 KB )
  4. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/platform_check.php ( 0.90 KB )
  5. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/ClassLoader.php ( 14.03 KB )
  6. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/autoload_static.php ( 4.90 KB )
  7. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/helper.php ( 8.34 KB )
  8. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-validate/src/helper.php ( 2.19 KB )
  9. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/helper.php ( 1.47 KB )
  10. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/stubs/load_stubs.php ( 0.16 KB )
  11. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Exception.php ( 1.69 KB )
  12. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-container/src/Facade.php ( 2.71 KB )
  13. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/deprecation-contracts/function.php ( 0.99 KB )
  14. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/polyfill-mbstring/bootstrap.php ( 8.26 KB )
  15. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/polyfill-mbstring/bootstrap80.php ( 9.78 KB )
  16. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/var-dumper/Resources/functions/dump.php ( 1.49 KB )
  17. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-dumper/src/helper.php ( 0.18 KB )
  18. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/var-dumper/VarDumper.php ( 4.30 KB )
  19. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/App.php ( 15.30 KB )
  20. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-container/src/Container.php ( 15.76 KB )
  21. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/container/src/ContainerInterface.php ( 1.02 KB )
  22. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/provider.php ( 0.19 KB )
  23. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Http.php ( 6.04 KB )
  24. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/helper/Str.php ( 7.29 KB )
  25. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Env.php ( 4.68 KB )
  26. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/common.php ( 0.03 KB )
  27. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/helper.php ( 18.78 KB )
  28. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Config.php ( 5.54 KB )
  29. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/app.php ( 0.95 KB )
  30. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/cache.php ( 0.78 KB )
  31. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/console.php ( 0.23 KB )
  32. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/cookie.php ( 0.56 KB )
  33. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/database.php ( 2.48 KB )
  34. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/facade/Env.php ( 1.67 KB )
  35. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/filesystem.php ( 0.61 KB )
  36. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/lang.php ( 0.91 KB )
  37. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/log.php ( 1.35 KB )
  38. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/middleware.php ( 0.19 KB )
  39. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/route.php ( 1.89 KB )
  40. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/session.php ( 0.57 KB )
  41. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/trace.php ( 0.34 KB )
  42. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/view.php ( 0.82 KB )
  43. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/event.php ( 0.25 KB )
  44. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Event.php ( 7.67 KB )
  45. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/service.php ( 0.13 KB )
  46. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/AppService.php ( 0.26 KB )
  47. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Service.php ( 1.64 KB )
  48. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Lang.php ( 7.35 KB )
  49. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/lang/zh-cn.php ( 13.70 KB )
  50. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/initializer/Error.php ( 3.31 KB )
  51. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/initializer/RegisterService.php ( 1.33 KB )
  52. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/services.php ( 0.14 KB )
  53. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/service/PaginatorService.php ( 1.52 KB )
  54. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/service/ValidateService.php ( 0.99 KB )
  55. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/service/ModelService.php ( 2.04 KB )
  56. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-trace/src/Service.php ( 0.77 KB )
  57. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Middleware.php ( 6.72 KB )
  58. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/initializer/BootService.php ( 0.77 KB )
  59. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/Paginator.php ( 11.86 KB )
  60. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-validate/src/Validate.php ( 63.20 KB )
  61. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/Model.php ( 23.55 KB )
  62. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/Attribute.php ( 21.05 KB )
  63. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/AutoWriteData.php ( 4.21 KB )
  64. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/Conversion.php ( 6.44 KB )
  65. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/DbConnect.php ( 5.16 KB )
  66. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/ModelEvent.php ( 2.33 KB )
  67. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/RelationShip.php ( 28.29 KB )
  68. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/contract/Arrayable.php ( 0.09 KB )
  69. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/contract/Jsonable.php ( 0.13 KB )
  70. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/contract/Modelable.php ( 0.09 KB )
  71. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Db.php ( 2.88 KB )
  72. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/DbManager.php ( 8.52 KB )
  73. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Log.php ( 6.28 KB )
  74. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Manager.php ( 3.92 KB )
  75. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/log/src/LoggerTrait.php ( 2.69 KB )
  76. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/log/src/LoggerInterface.php ( 2.71 KB )
  77. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Cache.php ( 4.92 KB )
  78. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/simple-cache/src/CacheInterface.php ( 4.71 KB )
  79. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/helper/Arr.php ( 16.63 KB )
  80. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/cache/driver/File.php ( 7.84 KB )
  81. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/cache/Driver.php ( 9.03 KB )
  82. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/CacheHandlerInterface.php ( 1.99 KB )
  83. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/Request.php ( 0.09 KB )
  84. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Request.php ( 55.78 KB )
  85. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/middleware.php ( 0.25 KB )
  86. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Pipeline.php ( 2.61 KB )
  87. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-trace/src/TraceDebug.php ( 3.40 KB )
  88. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/middleware/SessionInit.php ( 1.94 KB )
  89. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Session.php ( 1.80 KB )
  90. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/session/driver/File.php ( 6.27 KB )
  91. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/SessionHandlerInterface.php ( 0.87 KB )
  92. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/session/Store.php ( 7.12 KB )
  93. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Route.php ( 23.73 KB )
  94. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/RuleName.php ( 5.75 KB )
  95. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/Domain.php ( 2.53 KB )
  96. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/RuleGroup.php ( 22.43 KB )
  97. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/Rule.php ( 26.95 KB )
  98. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/RuleItem.php ( 9.78 KB )
  99. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/route/app.php ( 1.72 KB )
  100. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/facade/Route.php ( 4.70 KB )
  101. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/dispatch/Controller.php ( 4.74 KB )
  102. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/Dispatch.php ( 10.44 KB )
  103. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/controller/Index.php ( 4.81 KB )
  104. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/BaseController.php ( 2.05 KB )
  105. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/facade/Db.php ( 0.93 KB )
  106. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/connector/Mysql.php ( 5.44 KB )
  107. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/PDOConnection.php ( 52.47 KB )
  108. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/Connection.php ( 8.39 KB )
  109. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/ConnectionInterface.php ( 4.57 KB )
  110. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/builder/Mysql.php ( 16.58 KB )
  111. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/Builder.php ( 24.06 KB )
  112. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/BaseBuilder.php ( 27.50 KB )
  113. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/Query.php ( 15.71 KB )
  114. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/BaseQuery.php ( 45.13 KB )
  115. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/TimeFieldQuery.php ( 7.43 KB )
  116. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/AggregateQuery.php ( 3.26 KB )
  117. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/ModelRelationQuery.php ( 20.07 KB )
  118. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/ParamsBind.php ( 3.66 KB )
  119. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/ResultOperation.php ( 7.01 KB )
  120. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/WhereQuery.php ( 19.37 KB )
  121. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/JoinAndViewQuery.php ( 7.11 KB )
  122. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/TableFieldInfo.php ( 2.63 KB )
  123. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/Transaction.php ( 2.77 KB )
  124. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/log/driver/File.php ( 5.96 KB )
  125. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/LogHandlerInterface.php ( 0.86 KB )
  126. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/log/Channel.php ( 3.89 KB )
  127. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/event/LogRecord.php ( 1.02 KB )
  128. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/Collection.php ( 16.47 KB )
  129. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/facade/View.php ( 1.70 KB )
  130. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/View.php ( 4.39 KB )
  131. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Response.php ( 8.81 KB )
  132. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/response/View.php ( 3.29 KB )
  133. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Cookie.php ( 6.06 KB )
  134. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-view/src/Think.php ( 8.38 KB )
  135. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/TemplateHandlerInterface.php ( 1.60 KB )
  136. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-template/src/Template.php ( 46.61 KB )
  137. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-template/src/template/driver/File.php ( 2.41 KB )
  138. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-template/src/template/contract/DriverInterface.php ( 0.86 KB )
  139. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/runtime/temp/067d451b9a0c665040f3f1bdd3293d68.php ( 11.98 KB )
  140. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-trace/src/Html.php ( 4.42 KB )
  1. CONNECT:[ UseTime:0.000559s ] mysql:host=127.0.0.1;port=3306;dbname=f_mffb;charset=utf8mb4
  2. SHOW FULL COLUMNS FROM `fenlei` [ RunTime:0.000812s ]
  3. SELECT * FROM `fenlei` WHERE `fid` = 0 [ RunTime:0.000332s ]
  4. SELECT * FROM `fenlei` WHERE `fid` = 63 [ RunTime:0.000349s ]
  5. SHOW FULL COLUMNS FROM `set` [ RunTime:0.000478s ]
  6. SELECT * FROM `set` [ RunTime:0.000235s ]
  7. SHOW FULL COLUMNS FROM `article` [ RunTime:0.000642s ]
  8. SELECT * FROM `article` WHERE `id` = 478151 LIMIT 1 [ RunTime:0.001104s ]
  9. UPDATE `article` SET `lasttime` = 1774618422 WHERE `id` = 478151 [ RunTime:0.004031s ]
  10. SELECT * FROM `fenlei` WHERE `id` = 67 LIMIT 1 [ RunTime:0.000262s ]
  11. SELECT * FROM `article` WHERE `id` < 478151 ORDER BY `id` DESC LIMIT 1 [ RunTime:0.000523s ]
  12. SELECT * FROM `article` WHERE `id` > 478151 ORDER BY `id` ASC LIMIT 1 [ RunTime:0.000400s ]
  13. SELECT * FROM `article` WHERE `id` < 478151 ORDER BY `id` DESC LIMIT 10 [ RunTime:0.000764s ]
  14. SELECT * FROM `article` WHERE `id` < 478151 ORDER BY `id` DESC LIMIT 10,10 [ RunTime:0.002445s ]
  15. SELECT * FROM `article` WHERE `id` < 478151 ORDER BY `id` DESC LIMIT 20,10 [ RunTime:0.000945s ]
0.083303s