当前位置:首页>Linux>用了三年Linux,还在当“命令行搬运工”?不懂文件系统底层,早晚要出事!

用了三年Linux,还在当“命令行搬运工”?不懂文件系统底层,早晚要出事!

  • 2026-02-03 12:27:46
用了三年Linux,还在当“命令行搬运工”?不懂文件系统底层,早晚要出事!

文件系统

提到文件系统,Linux的老江湖们对这个概念当然不会陌生,然而刚接触Linux的新手们就会被这个概念弄得晕头转向,恰好我当年正好属于后者。

从windows下转到Linux的童鞋听到最多的应该是fat32和ntfs(在windows 2000之后所出现的一种新型的日志文件系统),那个年代经常听到说“我要把C盘格式化成ntfs格式,D盘格式化成fat32格式”。

一到Linux下,很多入门Linux的书籍中当牵扯到文件系统这个术语时,二话不说,不管三七二十一就给出了下面这个图,然后逐一解释一下每个目录是拿来干啥的、里面会放什么类型的文件就完事儿了,弄得初学者经常“丈二和尚摸不着头脑”。

本文的目的就是和大家分享一下我当初是如何学习Linux文件系统的,也算是一个“老”油条的一些心得吧。

“文件系统”的主语是“文件”,那么文件系统的意思就是“用于管理文件的(管理)系统”,在大多数操作系统的教材里,“文件是数据的集合”这个基本观点是一致的,而这些数据最终都是存储在存储介质里,如硬盘、光盘、U盘等。

另一方面,用户在管理数据时也是文件为基本单位,他们所关心的问题是:

  1. 我的文件在什么地方放着?
  2. 我如何将数据写入某个文件?
  3. 如何从文件里将数据读出来?
  4. 不再需要的文件怎么将其删除?

简而言之,文件系统就是一套用于定义文件的命名和组织数据的规范,其根本目的是便于对文件进行查询和存取。

  • 文件命名:文件系统规定了如何为文件命名,例如文件名的格式、长度、是否区分大小写等规则。比如在 Windows 中,文件名可能会限制字符的使用,而在 Linux 中,文件名则通常不区分大小写。
  • 数据组织:文件系统还定义了如何将数据存储在存储设备中,包括如何将文件分成小块、如何管理这些块等。比如,文件可以按块(block)分散存储在硬盘上,文件系统会确保每个块的位置和存取顺序,从而实现文件的完整性。
  • 查询与存取:文件系统的一个重要作用是提供高效的查询和存取机制,确保用户能够方便地查找文件、修改内容或删除文件。例如,当你通过文件名打开一个文件时,文件系统会查找该文件在磁盘上的位置,并将文件内容载入内存。

虚拟文件系统VFS

在Linux早期设计阶段,操作系统与文件系统是紧密结合的,每种文件系统都需要操作系统特别为其设计的支持代码。这意味着,如果你想在系统中支持多种文件系统(比如ext3、FAT32等),每种文件系统都需要在操作系统中有专门的支持。如果你的系统只支持ext3文件系统,那么其他文件系统(比如FAT32格式的U盘)将无法被识别和使用。

为了支持不同种类的文件系统,Linux引入了虚拟文件系统(VFS)的概念。

VFS最早是由Sun公司提出的,其基本思想是将不同的文件系统(ext3、FAT32、NTFS等)的实现细节屏蔽掉,统一成一个标准化的接口。这使得操作系统能够支持多种文件系统,而不需要关心它们的具体实现细节。

对用户的应用程序而言,VFS为用户提供的是统一的文件操作(如读取、写入文件)接口。这些操作都不关心具体的文件系统是什么类型(比如ext3、FAT32、NTFS)。无论底层文件系统使用什么格式,VFS都会进行适配,确保文件的操作方式对上层应用和用户来说是一致的,用户完全不需要知道底层实现的细节。

ext2文件系统

虚拟文件系统VFS是对各种文件系统的一个抽象层,抽取其共性,以便对外提供统一管理接口,便于内核对不同种类的文件系统进行管理。那么首先我们得看一下对于一个具体的文件系统,我们该关注重点在哪里。

对于存储设备(以硬盘为例)上的数据,可分为两部分:

  • 用户数据:存储用户实际数据的部分;
  • 管理数据:用于管理这些数据的部分,这部分我们通常叫它元数据(metadata)。

我们今天要讨论的就是这些元数据。

在正式展开之前,首先需要明确一个重要概念——块设备(Block Device)。

块设备是指以块(block)为基本读写单位的设备,支持缓冲和随机访问。在构建文件系统时,每种文件系统都会提供相应的 mkfs.xx 工具,允许用户指定块大小(block size),如果不指定,则会使用默认值。

在前面的文章中,我们提到过扇区(Sector)的概念,硬盘的每个扇区512字节,而多个相邻的若干扇区就构成了一个簇,从文件系统的角度看这个簇对应的就是我们这里所说块。

用户在上层系统写入的数据,首先会被缓存在块设备的缓存(内核缓冲区)中。当缓存中的数据填满一个块后,才会被传输给硬盘驱动程序,最终写入存储介质。如果希望立即将设备缓存中的数据写入存储介质,可以使用 sync 命令强制刷新缓存。

一般而言,块越大,存储性能越好,但可能会导致空间浪费;块越小,空间利用率更高,但性能可能有所下降。因此,如果不是专业用户,建议在格式化存储设备时,直接使用默认的块大小。

可以通过以下命令查看存储设备上文件系统使用的块大小:

[root@localhost ~]# tune2fs -l /dev/sda1tune2fs 1.39 (29-May-2006)Filesystem volume name: /bootLast mounted on:Filesystem UUID: 6ade5e49-ddab-4bf1-9a45-a0a742995775Filesystem magic number: 0xEF53Filesystem revision #: 1 (dynamic)Filesystem features: has_journal ext_attr resize_inode dir_index filetype needs_recovery sparse_superDefault mount options: user_xattr aclFilesystem state: cleanErrors behavior: ContinueFilesystem OS type: LinuxInode count: 38152Block count: 152584Reserved block count: 7629Free blocks: 130852Free inodes: 38111First block: 1Block size: 1024Fragment size: 1024Reserved GDT blocks: 256Blocks per group: 8192Fragments per group: 8192Inodes per group: 2008Inode blocks per group: 251Filesystem created: Thu Dec 13 00:42:52 2012Last mount time: Tue Nov 20 10:35:28 2012Last write time: Tue Nov 20 10:35:28 2012Mount count: 12Maximum mount count: -1Last checked: Thu Dec 13 00:42:52 2012Check interval: 0 ()Reserved blocks uid: 0 (user root)Reserved blocks gid: 0 (group root)First inode: 11Inode size: 128Journal inode: 8Default directory hash: teaDirectory Hash Seed: 72070587-1b60-42de-bd8b-a7b7eb7cbe63Journal backup: inode blocks

该命令已经暴露了文件系统的很多信息,接下我们将详细分析它们。

下图是我的虚拟机的情况,三块IDE的硬盘。容量分别是:

  • hda: 37580963840/(102410241024)=35GB
  • hdb: 8589934592/(102410241024)=8GB
  • hdd: 8589934592/(102410241024)=8GB

如果这是三块实际的物理硬盘的话,厂家所标称的容量就分别是37.5GB、8.5GB和8.5GB。可能有些童鞋觉得虚拟机有点“假”,那么我就来看看两个实际的硬盘到底是个啥样子。

  1. 西部数据500GB SATA接口硬盘,实际容量是 500107862016B,也就是大约 465.7GB。
  1. 希捷160GB SCSI接口硬盘,实际容量是 160041885696B,约为 149GB。

大家可以看到,VMware公司的水平还是相当不错的,虚拟硬盘和物理硬盘“根本”看不出差别,毕竟属于云平台基础架构支撑者的风云人物嘛。

以硬盘/dev/hdd1为例,它是我新增的一块新盘,格式化成ext2后,根目录下只有一个lost+found目录,让我们来看一下它的布局情况,以此来开始我们的文件系统之旅。

对于使用了ext2文件系统的分区来说,有一个叫superblock的数据结构,它包含了文件系统的整体结构信息。这个数据结构对于文件系统的正常运行是至关重要的,操作系统每次访问文件系统时都会首先读取superblock以了解文件系统的状态和布局。

superblock这个数据结构的大小为1024字节,其实ext3的superblock也是1024字节。下面的小程序可以证明这一点:

#include<stdio.h>#include<linux/ext2_fs.h>#include<linux/ext3_fs.h>intmain(int argc,char** argv){printf("sizeof of ext2 superblock=%d\n",sizeof(struct ext2_super_block));printf("sizeof of ext3 superblock=%d\n",sizeof(struct ext3_super_block));return0;}******************【运行结果】******************sizeof of ext2 superblock=1024sizeof of ext3 superblock=1024

那么superblock这个数据结构位于分区的哪个位置了?

硬盘是由一个个字节(byte)组成的,每个字节都可以存储8位(1字节)数据。硬盘的第一个字节是从0开始编号,所以第一个字节是byte0,以此类推。

分区头部的1024个字节(byte0~byte1023)并没有存储文件系统的具体数据,而是通常被用来做一些初始化或保留区域。例如,如果该分区不是主引导分区(即不是启动用的分区),那么这1024个字节会被填充为0。

接下来的byte1024到byte2047的1024个字节用于存储superblock。

我们用dd命令把superblock的信息提取出来:

$ dd if=/dev/hdd1 of=./hdd1sb bs=1024 skip=1 count=1#if=/dev/hdd1:指定输入文件,即 /dev/hdd1,表示从 /dev/hdd1 分区中读取数据。# of=./hdd1sb:指定输出文件,即 hdd1sb,用于保存读取到的 superblock 数据。# bs=1024:每次读取 1024 字节的数据。# skip=1:跳过 1 个 1024 字节的块,即跳过从 byte0 到 byte1023 这一部分(前 1024 字节)。# count=1:仅读取 1 个 1024 字节的块,即 byte1024 ~ byte2047,这正是 superblock 所在的位置。

上述命令将从/dev/hdd1分区的byte1024处开始,提取1024个字节的数据存储到当前目录下的hdd1sb文件里,该文件里就存储了我们superblock的所有信息。

上面的程序稍加改造,我们就可以以更直观的方式看到superblock的输出了:

#include<stdio.h>#include<sys/types.h>#include<sys/stat.h>#include<fcntl.h>#include<unistd.h>#include<string.h>#include<linux/ext2_fs.h>#include<linux/ext3_fs.h>intmain(int argc,char** argv){printf("sizeof of ext2 superblock=%d\n",sizeof(struct ext2_super_block));printf("sizeof of ext3 superblock=%d\n",sizeof(struct ext3_super_block));char buf[1024] = {0};int fd = -1;structext2_super_blockhdd1sb;memset(&hdd1sb,0,1024);if(-1 == (fd=open("./hdd1sb",O_RDONLY,0777))){printf("open file error!\n");return1;    }if(-1 == read(fd,buf,1024)){printf("read error!\n");        close(fd);return1;    }memcpy((char*)&hdd1sb,buf,1024);printf("inode count : %ld\n",hdd1sb.s_inodes_count);printf("block count : %ld\n",hdd1sb.s_blocks_count);printf("Reserved blocks count : %ld\n",hdd1sb.s_r_blocks_count);printf("Free blocks count : %ld\n",hdd1sb.s_free_blocks_count);printf("Free inodes count : %ld\n",hdd1sb.s_free_inodes_count);printf("First Data Block : %ld\n",hdd1sb.s_first_data_block);printf("Block size : %ld\n",1<<(hdd1sb.s_log_block_size+10));printf("Fragment size : %ld\n",1<<(hdd1sb.s_log_frag_size+10));printf("Blocks per group : %ld\n",hdd1sb.s_blocks_per_group);printf("Fragments per group : %ld\n",hdd1sb.s_frags_per_group);printf("Inodes per group : %ld\n",hdd1sb.s_inodes_per_group);printf("Magic signature : 0x%x\n",hdd1sb.s_magic);printf("size of inode structure : %d\n",hdd1sb.s_inode_size);    close(fd);return0;}******************【运行结果】******************inode count : 1048576block count : 2097065Reserved blocks count : 104853Free blocks count : 2059546Free inodes count : 1048565First Data Block : 0Block size : 4096Fragment size : 4096Blocks per group : 32768Fragments per group : 32768Inodes per group : 16384Magic signature : 0xef53size of inode structure : 128

可以看出,superblock 的作用就是记录文件系统的类型、block大小、block总数、inode大小、inode总数、group的总数等信息。

对于ext2/ext3文件系统来说数字签名Magic signature都是0xef53,如果不是那么它一定不是ext2/ext3文件系统。这里我们可以看到,我们的/dev/hdd1确实是ext2文件系统类型。

这个示例中hdd1中一共包含1048576个inode节点(inode编号从1开始),每个inode节点大小为128字节,所有inode消耗的存储空间是1048576×128=128MB;总共包含2097065个block,每个block大小为4096字节,每32768个block组成一个group,所以一共有2097065/32768=63.99,即64个group(group编号从0开始,即Group0~Group63)。所以整个/dev/hdd1被划分成了64个group,详情如下:

用命令tune2fs可以验证我们之前的分析:

再通过命令dumpe2fs /dev/hdd1的输出,可以得到我们关注如下部分:

接下来以Group0为例,主superblock在Group0的block0里,根据前面的分析,我们可以画出主superblock在block0中的位置如下:

因为superblock是如此之重要,一旦它出错你的整个系统就玩儿完了,所以文件系统中会存在磁盘的多个不同位置会存在主superblock的备份副本,一旦系统出问题后还可以通过备份的superblock对文件系统进行修复。

第一版ext2文件系统的实现里,每个Group里都存在一份superblock的副本,然而这样做的负面效果也是相当明显,那就是严重降低了磁盘的空间利用率。所以在后续ext2的实现代码中,选择用于备份superblock的Group组号的原则是3的N次方、5的N次方、7的N次方其中N=0,1,2,3…。根据这个公式我们来计算一下/dev/hdd1中备份有supeblock的Group号:

也就是说Group1、3、5、7、9、25、27、49里都保存有superblock的拷贝,如下:

用block号分别除以32768就得到了备份superblock的Group号,和我们在上面看到的结果一致。我们来看一下/dev/hdd1中Group和block的关系:

从上图中我们可以清晰地看出在使用了ext2文件系统的分区上,包含有主superblock的Group、备份superblock的Group以及没有备份superblock的Group的布局情况。存储了superblock的Group中有一个组描述符(Group descriptors)紧跟在superblock所在的block后面,占一个block大小;同时还有个Reserved GDT跟在组描述符的后面。

Reserved GDT的存在主要是支持ext2文件系统的resize功能,它有自己的inode和data block,这样一来如果文件系统动态增大,Reserved GDT就正好可以腾出一部分空间让Group descriptor向下扩展。

一些概念

下面我们来认识一下superblock,inode,block,group,group descriptor,block bitmap,inode table这些家伙。为什么前面不详细介绍这些概念呢,因为任何关于文件系统的文章还是书籍一开始都是先说概念、说理论,让人一直有种雾里看花的感觉。

纸上得来终觉浅,事必躬亲才印象深,所以在前文中我们以一块实际硬盘为例来向大家展示了一下文件系统在存储介质上的布局情况,先让大家对其有个比较直观的认识,然后再逐一对它们进行解释和说明,印象会更深刻些。咱不否认理论的重要性,秉承着“理论指导实践,以实践加深对理论的认识”的宗旨来一步一步入文件系统的乐园。

superblock

这个东西确实很重要,前面我们已经见识过。为此,文件系统还特意精挑细选的找了N多后备Group,在这些Group中都存有superblock的副本,你就知道它有多重要了。

说白了,superblock 的作用就是记录文件系统的类型、block大小、block总数、inode大小、inode总数、group的总数等等。

group descriptors

千万不要以为这就是一个组描述符,看到descriptor后面加了个s就知道这是N多描述符的集合。确实,这是文件系统中所有group的描述符所构成的一个数组,它的结构定义在include/linux/ext2_fs.h中:

//Structure of a blocks group descriptorstructext2_group_desc{     __le32   bg_block_bitmap;             /* group中block bitmap所在的第一个block号 */     __le32   bg_inode_bitmap;            /* group中inode bitmap 所在的第一个block号 */     __le32   bg_inode_table;                /* group中inodes table 所在的第一个block号 */     __le16   bg_free_blocks_count;    /* group中空闲的block总数 */     __le16   bg_free_inodes_count;   /* group中空闲的inode总数*/     __le16   bg_used_dirs_count;       /* 目录数 */     __le16   bg_pad;     __le32   bg_reserved[3];};

下面的程序可以帮助了解一下/dev/hdd1中所有group的descriptor的详情:

#define B_LEN 32  //一个struct ext2_group_desc{}占固定32字节intmain(int argc,char** argv){char buf[B_LEN] = {0};int i=0,fd = -1;structext2_group_descgd;memset(&gd,0,B_LEN);if(-1 == (fd=open(argv[1],O_RDONLY,0777))){printf("open file error!\n");return1;    }while(i<64){    //因为我已经知道了/dev/hdd1中只有64个groupif(-1 == read(fd,buf,B_LEN)){printf("read error!\n");            close(fd);return1;        }memcpy((char*)&gd,buf,B_LEN);printf("========== Group %d: ==========\n",i);printf("Blocks bitmap block %ld \n",gd.bg_block_bitmap);printf("Inodes bitmap block %ld \n",gd.bg_inode_bitmap);printf("Inodes table block %ld \n",gd.bg_inode_table);printf("Free blocks count %d \n",gd.bg_free_blocks_count);printf("Free inodes count %d \n",gd.bg_free_inodes_count);printf("Directories count %d \n",gd.bg_used_dirs_count);memset(buf,0,B_LEN);        i++;    }    close(fd);return0;}

其中,文件gp0decp是由命令“dd if=/dev/hdd1 of=./gp0decp bs=4096 skip=1 count=1”生成。每个group descriptor里记录了该group中的inode table的起始block号,因为inode table有可能会占用连续的多个block;空闲的block、inode数等等。

block bitmap

一个block bitmap占用一个block大小,而block bitmap中每个bit表示一个对应block的占用情况,0表示对应的block为空,为1表示相应的block中存有数据。

前面已经了解了Group0的一些基本信息如下:

Group 0: (Blocks 0-32767)  Primary superblock at 0, Group descriptors at 1-1  Reserved GDT blocks at 2-512  Block bitmap at 513 (+513), Inode bitmap at 514 (+514)  Inode table at 515-1026 (+515)31739free blocks, 16374free inodes, 1 directories       #包含一个目录  Free blocks: 1028-10311033-32767      #一共有31739个空闲block  Free inodes: 11-16384      #一共有16374个空闲inode

在/dev/hdd1中,一个group里最多只能包含8×4096=32768个block,这一点我们已经清楚了。需要格外注意。另外,/dev/hdd1是新挂载的硬盘,格式化成ext2后并没有任何数据,只有一个lost+found目录。

接下来我们用命令“dd if=/dev/hdd1 of=./gp0 bs=4096 count=32768”将Group0里的所有数据提取出来,我们来看一下Group0的block bitmap,如下:

发现block bitmap的前128字节和第129字节的低4位都为1,说明发现Group0中前128×8+4=1028个block,即block0block1027都已被使用了。第129字节的高4位为0,表示block1028block1031四个block是空闲的;第130字节的最低位是1,说明block1032被占用了;从block1033~block32767的block bitmap都是0,所以这些block都是空闲的,和上表输出的结果一致。

inode bitmap

在文件系统中每个对象都有一个对应的inode节点(这句话有些不太准确,因为硬链接和它的目标文件共用一个inode),里存储了一个对象(文件或目录)的信息有权限、所占字节数、创建时间、修改时间、链接数、属主ID、组ID,如果是文件的话还会包含文件内容占用的block总数以及block号。inode是从1编号,这一点不同于block。

和block bitmap类似,innode bitmap的每个比特表示相应的inode是否被使用。Group0的inode bitmap如下:

/dev/hdd1里inode总数为1048576,要被均分到64个Group里,所以每个Group中都包含了16384个inode。要表示每个Group中16384个inode,inode bitmap总共需要使用2048(16384/8)字节。inode bitmap本身就占据了一个block,所以它只用到了该block中的前2048个字节,剩下的2048字节都被填充成1,如上图所示。

我们可以看到Group0中的inode bitmap前两个字节分别是ff和03,说明Group0里的前11个inode已经被使用了。其中前10个inode被ext2预留起来,第11个inode就是lost+found目录,如下:

inode table

那么每个Group中的所有inode到底存放在哪里呢?答案就是inode table。它是每个Group中所有inode的聚合地。

因为一个inode占128字节,所以每个Group里的所有inode共占16384×128=2097152字节,总共消耗了512个block。Group的group descriptor里记录了inode table的所占block的起始号,所以就可以唯一确定每个Group里inode table所在的block的起始号和结束号了。inode的结构如下:

这里我们主要关注的其中的数据block指针部分。前12个block指针直接指向了存有数据的block号;第13个block指针所指向的block中存储的并不是数据而是由其他block号,这些block号所对应的block里存储的才是真正的数据,即所谓的两级block指针;第14个block为三级block指针;第15个block为四级block指针。最后效果图如下:

一个block为4096字节,每个块指针4字节,所以一个block里最多可以容纳4096/4=1024个block指针,我们可以计算出一个inode最大能表示的单个文件的最大容量如下:

所以,我们可以得出不同block大小,对单个文件最大容量的影响。假设block大小为X字节,则:

如下表所示:

最后来一张全家福:

细聊文件文件访问

我们已经对ext2fs应该有了一个宏观上的认识,但是前文中所介绍的superblock、block、group、group descriptor和ionde等等,它们到底有什么用呢?下面我们简单热个身,来研究一下在一个磁盘分区上如何根据文件的inode号来访问文件的内容?

在我们将某个分区格式化成ext2/ext3文件系统时,block的大小一定是确定的,即使用户没有手工指定,block也会有个缺省值。在分区总大小一定的情况,每个分区所包含的block数也就固定了,通过superblock我么可以知道分区中一共有多个少group以及每个group中所包含的block数。

当我们拿到一个inode号时,首先要确定该inode属于哪个group,即计算出该inode所在的group号,然后在组描述符数组中找到该group的描述信息,进而就可以获取该inode所表示的文件内容了。

我们设计的结构体信息如下:

structfdataunsignedlonginode_num;//用户输入的inode号unsignedlong i_blk_size;     //block大小,从superblock里获取unsignedint i_grp_num;      //该inode 所在group号unsignedlong i_nt_blk_num;  //每个group中inode table所在的第一个block号structext2_super_blocksb;//superblock的拷贝structext2_group_descgd;//group descriptor的拷贝structext2_inodei_data;//inode的拷贝};

最终的测试代码如下rd_file_by_inode.c:

#define EXT2_SB_SIZE 1024 //ext2文件系统superblock的大小structfdata {unsignedlong inode_num;   //inode numberunsignedlong i_blk_size;    //block sizeunsignedint i_grp_num;    //group number to which inode belongsunsignedlong i_nt_blk_num;structext2_super_blocksb;structext2_group_descgd;structext2_inodei_data;};//获取文件系统的block大小,并计算inode所在的group号intget_blk_size(int fd,int offset,struct fdata* ret){if(-1 == fd){printf("file descriptor invalid!\n");return0;    }char *buf=(char*)malloc(EXT2_SB_SIZE);if(NULL == buf){printf("can't alloc memory!\n");return0;    }memset(buf,0, EXT2_SB_SIZE);if(-1 == lseek(fd,offset,0)){printf("lseek error!\n");return0;    }if(read(fd,buf, EXT2_SB_SIZE)<0){printf("read file error!\n");return0;    }//将superblock的信息复制一份到fdata.sb里。memcpy((char*)&(ret->sb),buf, EXT2_SB_SIZE);//还记得如何根据superblock计算block的真实大小么?    ret->i_blk_size = 1<<(ret->sb.s_log_block_size+10);/*我们知道inode号在一个分区上是全局唯一且顺序增长的,每个group中所包含的inode总数也是固定,所以根据inode号就可以求得其所在group号。group可是从0开始编号的哦。*/    ret->i_grp_num = ret->inode_num/ret->sb.s_inodes_per_group;free(buf);    buf=NULL;return1;}//获取inode所在group的组描述符。intget_grp_descriptor(int fd,int offset,struct fdata* ret){int ds_size = sizeof(struct ext2_group_desc);        char *buf=(char*)malloc(ds_size);    lseek(fd,offset+ret-> i_grp_num *ds_size,0);     read(fd,buf,ds_size);//将inode所在的组的组描述符复制一份到fdata.gd里。memcpy((char*)&(ret->gd),buf,ds_size);//inode所在组中,inode在该组里所占的第一个block号。注意,inode有可能会连续占据好几个block,这一点我们前面也了解到。    ret->i_nt_blk_num=ret->gd.bg_inode_table;free(buf);    buf=NULL;return1;}//这里才是根据inode号读取该inode本身的128字节的数据。intget_inode(int fd,int offset,struct fdata* ret){int inode_size = sizeof(struct ext2_inode);     /*知道了block大小,以及inode所占block的起始号,inode大小也知道,那么根据inode号就可以直接定位到所要操作的inode在    磁盘分区上的偏移量,如下。而inode是从1开始编号,所以计算偏移量要留心。*/    offset=ret->i_nt_blk_num*ret->i_blk_size+(ret->inode_num-1)*inode_size;char *buf=(char*)malloc(inode_size);    lseek(fd,offset,0);    read(fd,buf,inode_size);memcpy((char*)&(ret->i_data),buf,inode_size);free(buf);    buf=NULL;return1}/*拿到inode里的信息后,我们就可以获取其所表示的文件的内容数据了。这里我用了递归算法来读取各级block数据指针所指向的block中的内容。算法有待优化,呵呵。*/intread_data(int fd,int block_s,int dblock_num,int fsize,int level,char* dbuf){int offset=0,rdbytes,left;char *buf=(char*)malloc(block_s);   lseek(fd,block_s*dblock_num,0);       read(fd,buf,block_s);unsignedint *pdblk=(unsignedint *)buf;while(fsize>0 && ((char*)pdblk-buf)if(level > 2){             rdbytes=read_data(fd,block_s,*pdblk,fsize,level-1,dbuf+offset);              }else{             rdbytes=(fsize >= block_s? block_s:fsize);             lseek(fd,(*pdblk)*block_s,0);             read(fd,dbuf+offset,rdbytes);        }        offset += rdbytes;        fsize -= rdbytes;        pdblk++;   }free(buf);return offset;}//对上面读取inode中数据block的函数进行一次封装,如下:int get_data(int fd,struct fdata* ret,char* output_fileName){int rdbytes,offset=0,i=0,file_size = ret->i_data.i_size,Blk;int blk_size = ret->i_blk_size;char *buf=(char*)malloc(file_size);memset(buf,0,file_size);while(file_size>0){          rdbytes=(file_size >= blk_size? blk_size:(file_size));if(i<12){ //读取数据的直接block指针所指向的数据块里的内容               lseek(fd,ret->i_data.i_block[i]*blk_size,0);               Blk=read(fd,buf+offset,rdbytes);          }elseif(i == 12){ //两级block数据指针               Blk=read_data(fd,blk_size,ret->i_data.i_block[i],file_size,2,buf+offset);          }elseif(i == 13){//三级block数据指针               Blk=read_data(fd,blk_size,ret->i_data.i_block[i],file_size,3,buf+offset);          }else{//四级block数据指针               Blk=read_data(fd,blk_size,ret->i_data.i_block[i],file_size,4,buf+offset);          }          offset += Blk;          file_size -= Blk;          i++;    }int fdo = open(output_fileName,O_CREAT|O_WRONLY,0777);    write(fdo,buf,ret->i_data.i_size);    close(fdo);return1;}int main(int argc,char** argv){int fd = -1;   struct fdata mf_data;if(4 != argc){printf("Usage: %s /dev/partationLabel inode_number output_fileName \n");return0;    }if(-1 == (fd=open(argv[1],O_RDONLY,0777))){printf("open file error!\n");return1;    }           mf_data.inode_num = atol(argv[2]);if(!get_blk_size(fd, EXT2_SB_SIZE,&mf_data)){printf("get superblock failed!\n");           close(fd);return1;     }     get_grp_descriptor(fd,mf_data. i_blk_size,&mf_data);     get_inode(fd,0,&mf_data);     get_data(fd,&mf_data,argv[3]);printf("inode : %d\n",mf_data.inode_num);printf("block size: %d\n",mf_data.i_blk_size);printf("file size : %d Byte(s)\n",mf_data.i_data.i_size);     close(fd);return0;}

进行编译:

我的一块虚拟硬盘/dev/hdd1只有一个分区,格式是ext2挂载在/mnt/ided目录下。该分区里有几个文件,如下所示。

然后我们依次执行如下命令:

根据文件的inode号分别读取/mnt/ided目录下的bzImage(大小bzImage字节),klinux-2.6.18.tar.gz(大小156992521字节)和VMwareTools-7.8.6-185404.i386.rpm(大小102939982字节)的内容。验证一下我们读取到的文件内容是否正确:

md5sum算出来的摘要一模一样。有些童鞋可能心里犯嘀咕:“MD5摘要加密算法不是早在2005年就已经被山东大学王小云教授的团队破解了,证明是不可靠的么?那么md5sum命令的输出结果会不会是忽悠人呢?”

怀疑才会使人进步和成长。那么下面这个操作肯定100%值得信赖:

我们把源文件和我们通过inode读取到的文件内容,以十六进制形式输出,然后再比较看其是否差异。理论和实际均证明我们的算法是正确的。 虽然文件系统不是这样来根据inode读取文件内容的,但是我们自己通过一番摸索,对文件系统中的各种术语和名词以及它们的作用的认识和掌握又加深了一个层次。

最新文章

随机文章

基本 文件 流程 错误 SQL 调试
  1. 请求信息 : 2026-02-08 16:35:30 HTTP/2.0 GET : https://f.mffb.com.cn/a/463402.html
  2. 运行时间 : 0.231551s [ 吞吐率:4.32req/s ] 内存消耗:4,775.67kb 文件加载:140
  3. 缓存信息 : 0 reads,0 writes
  4. 会话信息 : SESSION_ID=1ca34b861056136092d5bb9c03f5f312
  1. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/public/index.php ( 0.79 KB )
  2. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/autoload.php ( 0.17 KB )
  3. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/autoload_real.php ( 2.49 KB )
  4. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/platform_check.php ( 0.90 KB )
  5. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/ClassLoader.php ( 14.03 KB )
  6. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/composer/autoload_static.php ( 4.90 KB )
  7. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/helper.php ( 8.34 KB )
  8. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-validate/src/helper.php ( 2.19 KB )
  9. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/helper.php ( 1.47 KB )
  10. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/stubs/load_stubs.php ( 0.16 KB )
  11. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Exception.php ( 1.69 KB )
  12. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-container/src/Facade.php ( 2.71 KB )
  13. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/deprecation-contracts/function.php ( 0.99 KB )
  14. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/polyfill-mbstring/bootstrap.php ( 8.26 KB )
  15. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/polyfill-mbstring/bootstrap80.php ( 9.78 KB )
  16. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/var-dumper/Resources/functions/dump.php ( 1.49 KB )
  17. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-dumper/src/helper.php ( 0.18 KB )
  18. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/symfony/var-dumper/VarDumper.php ( 4.30 KB )
  19. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/App.php ( 15.30 KB )
  20. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-container/src/Container.php ( 15.76 KB )
  21. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/container/src/ContainerInterface.php ( 1.02 KB )
  22. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/provider.php ( 0.19 KB )
  23. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Http.php ( 6.04 KB )
  24. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/helper/Str.php ( 7.29 KB )
  25. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Env.php ( 4.68 KB )
  26. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/common.php ( 0.03 KB )
  27. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/helper.php ( 18.78 KB )
  28. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Config.php ( 5.54 KB )
  29. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/app.php ( 0.95 KB )
  30. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/cache.php ( 0.78 KB )
  31. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/console.php ( 0.23 KB )
  32. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/cookie.php ( 0.56 KB )
  33. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/database.php ( 2.48 KB )
  34. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/facade/Env.php ( 1.67 KB )
  35. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/filesystem.php ( 0.61 KB )
  36. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/lang.php ( 0.91 KB )
  37. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/log.php ( 1.35 KB )
  38. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/middleware.php ( 0.19 KB )
  39. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/route.php ( 1.89 KB )
  40. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/session.php ( 0.57 KB )
  41. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/trace.php ( 0.34 KB )
  42. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/config/view.php ( 0.82 KB )
  43. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/event.php ( 0.25 KB )
  44. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Event.php ( 7.67 KB )
  45. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/service.php ( 0.13 KB )
  46. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/AppService.php ( 0.26 KB )
  47. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Service.php ( 1.64 KB )
  48. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Lang.php ( 7.35 KB )
  49. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/lang/zh-cn.php ( 13.70 KB )
  50. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/initializer/Error.php ( 3.31 KB )
  51. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/initializer/RegisterService.php ( 1.33 KB )
  52. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/services.php ( 0.14 KB )
  53. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/service/PaginatorService.php ( 1.52 KB )
  54. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/service/ValidateService.php ( 0.99 KB )
  55. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/service/ModelService.php ( 2.04 KB )
  56. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-trace/src/Service.php ( 0.77 KB )
  57. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Middleware.php ( 6.72 KB )
  58. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/initializer/BootService.php ( 0.77 KB )
  59. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/Paginator.php ( 11.86 KB )
  60. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-validate/src/Validate.php ( 63.20 KB )
  61. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/Model.php ( 23.55 KB )
  62. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/Attribute.php ( 21.05 KB )
  63. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/AutoWriteData.php ( 4.21 KB )
  64. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/Conversion.php ( 6.44 KB )
  65. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/DbConnect.php ( 5.16 KB )
  66. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/ModelEvent.php ( 2.33 KB )
  67. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/concern/RelationShip.php ( 28.29 KB )
  68. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/contract/Arrayable.php ( 0.09 KB )
  69. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/contract/Jsonable.php ( 0.13 KB )
  70. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/model/contract/Modelable.php ( 0.09 KB )
  71. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Db.php ( 2.88 KB )
  72. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/DbManager.php ( 8.52 KB )
  73. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Log.php ( 6.28 KB )
  74. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Manager.php ( 3.92 KB )
  75. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/log/src/LoggerTrait.php ( 2.69 KB )
  76. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/log/src/LoggerInterface.php ( 2.71 KB )
  77. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Cache.php ( 4.92 KB )
  78. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/psr/simple-cache/src/CacheInterface.php ( 4.71 KB )
  79. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/helper/Arr.php ( 16.63 KB )
  80. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/cache/driver/File.php ( 7.84 KB )
  81. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/cache/Driver.php ( 9.03 KB )
  82. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/CacheHandlerInterface.php ( 1.99 KB )
  83. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/Request.php ( 0.09 KB )
  84. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Request.php ( 55.78 KB )
  85. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/middleware.php ( 0.25 KB )
  86. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Pipeline.php ( 2.61 KB )
  87. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-trace/src/TraceDebug.php ( 3.40 KB )
  88. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/middleware/SessionInit.php ( 1.94 KB )
  89. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Session.php ( 1.80 KB )
  90. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/session/driver/File.php ( 6.27 KB )
  91. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/SessionHandlerInterface.php ( 0.87 KB )
  92. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/session/Store.php ( 7.12 KB )
  93. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Route.php ( 23.73 KB )
  94. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/RuleName.php ( 5.75 KB )
  95. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/Domain.php ( 2.53 KB )
  96. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/RuleGroup.php ( 22.43 KB )
  97. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/Rule.php ( 26.95 KB )
  98. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/RuleItem.php ( 9.78 KB )
  99. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/route/app.php ( 1.72 KB )
  100. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/facade/Route.php ( 4.70 KB )
  101. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/dispatch/Controller.php ( 4.74 KB )
  102. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/route/Dispatch.php ( 10.44 KB )
  103. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/controller/Index.php ( 4.81 KB )
  104. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/app/BaseController.php ( 2.05 KB )
  105. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/facade/Db.php ( 0.93 KB )
  106. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/connector/Mysql.php ( 5.44 KB )
  107. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/PDOConnection.php ( 52.47 KB )
  108. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/Connection.php ( 8.39 KB )
  109. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/ConnectionInterface.php ( 4.57 KB )
  110. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/builder/Mysql.php ( 16.58 KB )
  111. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/Builder.php ( 24.06 KB )
  112. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/BaseBuilder.php ( 27.50 KB )
  113. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/Query.php ( 15.71 KB )
  114. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/BaseQuery.php ( 45.13 KB )
  115. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/TimeFieldQuery.php ( 7.43 KB )
  116. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/AggregateQuery.php ( 3.26 KB )
  117. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/ModelRelationQuery.php ( 20.07 KB )
  118. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/ParamsBind.php ( 3.66 KB )
  119. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/ResultOperation.php ( 7.01 KB )
  120. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/WhereQuery.php ( 19.37 KB )
  121. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/JoinAndViewQuery.php ( 7.11 KB )
  122. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/TableFieldInfo.php ( 2.63 KB )
  123. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-orm/src/db/concern/Transaction.php ( 2.77 KB )
  124. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/log/driver/File.php ( 5.96 KB )
  125. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/LogHandlerInterface.php ( 0.86 KB )
  126. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/log/Channel.php ( 3.89 KB )
  127. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/event/LogRecord.php ( 1.02 KB )
  128. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-helper/src/Collection.php ( 16.47 KB )
  129. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/facade/View.php ( 1.70 KB )
  130. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/View.php ( 4.39 KB )
  131. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Response.php ( 8.81 KB )
  132. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/response/View.php ( 3.29 KB )
  133. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/Cookie.php ( 6.06 KB )
  134. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-view/src/Think.php ( 8.38 KB )
  135. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/framework/src/think/contract/TemplateHandlerInterface.php ( 1.60 KB )
  136. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-template/src/Template.php ( 46.61 KB )
  137. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-template/src/template/driver/File.php ( 2.41 KB )
  138. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-template/src/template/contract/DriverInterface.php ( 0.86 KB )
  139. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/runtime/temp/067d451b9a0c665040f3f1bdd3293d68.php ( 11.98 KB )
  140. /yingpanguazai/ssd/ssd1/www/f.mffb.com.cn/vendor/topthink/think-trace/src/Html.php ( 4.42 KB )
  1. CONNECT:[ UseTime:0.001198s ] mysql:host=127.0.0.1;port=3306;dbname=f_mffb;charset=utf8mb4
  2. SHOW FULL COLUMNS FROM `fenlei` [ RunTime:0.001592s ]
  3. SELECT * FROM `fenlei` WHERE `fid` = 0 [ RunTime:0.003232s ]
  4. SELECT * FROM `fenlei` WHERE `fid` = 63 [ RunTime:0.000950s ]
  5. SHOW FULL COLUMNS FROM `set` [ RunTime:0.001549s ]
  6. SELECT * FROM `set` [ RunTime:0.003224s ]
  7. SHOW FULL COLUMNS FROM `article` [ RunTime:0.001610s ]
  8. SELECT * FROM `article` WHERE `id` = 463402 LIMIT 1 [ RunTime:0.003850s ]
  9. UPDATE `article` SET `lasttime` = 1770539730 WHERE `id` = 463402 [ RunTime:0.008622s ]
  10. SELECT * FROM `fenlei` WHERE `id` = 67 LIMIT 1 [ RunTime:0.000670s ]
  11. SELECT * FROM `article` WHERE `id` < 463402 ORDER BY `id` DESC LIMIT 1 [ RunTime:0.001249s ]
  12. SELECT * FROM `article` WHERE `id` > 463402 ORDER BY `id` ASC LIMIT 1 [ RunTime:0.005637s ]
  13. SELECT * FROM `article` WHERE `id` < 463402 ORDER BY `id` DESC LIMIT 10 [ RunTime:0.005781s ]
  14. SELECT * FROM `article` WHERE `id` < 463402 ORDER BY `id` DESC LIMIT 10,10 [ RunTime:0.023677s ]
  15. SELECT * FROM `article` WHERE `id` < 463402 ORDER BY `id` DESC LIMIT 20,10 [ RunTime:0.008471s ]
0.235266s