2023-01-11 17:23
linux inode索引节点使用率100% 解决
df -i 查看了一下/分区的索引节点(inode),发现已经用满(已用=100%),导致系统无法创建新目录和文件。
du -sh 查看某文件的大小
周末因为一个鸟程序的日志每条都疯狂输出到一个文件,直接把inode塞满了。记一下排查方法和删除大量文件所做的一些措施。
问题排查
for i in /*; do echo $i; find $i | wc -l; done
1
首先使用上面的这条命令一步步缩小范围,确定在哪个目录下inode的节点数过多异常。
最后我锁定到了日志目录,可是里面只有几个日志文件,在目录下直接运行这条命令也只能看到可见文件的inode数,在上一级目录却发现inode数为200多万。
在目录下运行ls -f命令发现有大量的隐藏文件,所以对这些文件需要进行删除操作。
文件的删除
(1)很多人在博客上写用rsync这条命令。新建一个空文件夹,然后使用rsync进行同步并删除,使用之后inode的确被释放出来了,可是速度真的慢。并不像网上说的快的一批。大概一秒也就删了十个左右的文件。运行了好久没啥用。
(2)使用find之后接上xargs rm -f,这个比起rsync还是快一点。
*可是等上面的命令运行结束之后,文件夹里还是有文件,但是怎么都删不掉了。
ls -f 显示memory exhausted,rm -rf ./运行一会儿就被killed了。
(3)最后使用ls -f | xargs -n 1 rm -rf 这条命令进行了删除,速度看起来比之前的命令都更快一点。
所以我真的不知道为什么rsync并没有那些博客里说的那么快,可能我输入命令时的姿势不够正确吧
执行上述清理磁盘空间的命令后,可以通过命令:df -h 查看一下剩余的磁盘空间。只要Use%没有达到100%就可以了。
df -T 一样的命令
删除/data/cache目录中的部分文件,释放出/data分区的一部分inode。
|
|
这个命令中 /var/spool/clientmqueue 是要删除的文件所在的目录 -type f这个参数限定find只查找普通文件(即不是管道文件,不是块文件,不是链接文件,不是目录等),防止误删除系统文件。
原因分析:系统中有用户开启了cron,而cron中执行的程序有输出内容,输出内容会以邮件形式发给cron的用户,而sendmail没有启动所以就产生了这些文件;
解决办法:
将crontab里面的命令后面加上 > /dev/null 2>&1 或者crontab里面的命令后面加上 > /dev/null
1. 在Linux系统通过df -i查看inode值,如果inode值满了,即使磁盘空间很大,也无法创建文件,使用touch abc.txt都无法执行
2. 在Solaris系统通过命令df -o i查看inode值
3. 在centos查看inode的方法
for i in /*; do echo $i; find $i | wc -l; done
4. 如果某个文件夹下面文件比较多,使用rm *是无法使用的
使用xargs命令来删除数量比较多的文件 ls | xargs -n 10 rm -rf
阿里云 Linux实例磁盘空间满和inode满的问题排查方法
inode容量满的处理
通过如下操作,解决inode容量满的问题。
查询inode使用情况
Linux的inode节点中,记录了文件的类型、大小、权限、所有者、文件连接的数目、创建时间与更新时间等重要的信息,还有一个比较重要的内容就是指向数据块的指针。一般情况不需要特殊配置,如果存放文件很多,则需要配置。有时磁盘空间有剩余但是不能存放文件,可能是由于inode耗尽所致。
清除inode占用高的文件或者目录
如果不方便格式化磁盘以增加inode数量,可以参考如下步骤,清理inode占用量高的文件或者目录。
1
|
for i in /*; do echo $i; find $i | wc -l; done
|
系统显示类似如下。
修改inode数量
如果不允许清理磁盘中的文件,或者清理后inode使用率仍然较高,则需要通过如下步骤,增加inode节点数量。
注:inode的调整需要重新格式化磁盘,请确保数据已经得到有效备份后,再进行以下操作。
1
|
umount /home
|
1
|
mkfs.ext3 /dev/xvdb -N 1638400
|
注:本文指定inode节点数1638400,现场实际环境请以实际为准。
1
|
vim /etc/fstab
|
1
|
dumpe2fs -h /dev/xvdb | grep node
|
系统显示类似如下。