inodeが枯渇するとどうなるか
何年も前にinode枯渇問題に直面したことが何度かあったので,結果は知っているのですが,ちょっと詰まってしまった別件があり,現実逃避目的でとりあえず息抜きで試してみました.
どうみてもトーシロの検証でサーセン.
[root@centos6 ~]# dd if=/dev/zero of=$PWD/dummy.dd bs=1M count=100 100+0 records in 100+0 records out 104857600 bytes (105 MB) copied, 3.81335 s, 27.5 MB/s
[root@centos6 ~]# mkfs.ext3 $PWD/dummy.dd -N 100 mke2fs 1.41.12 (17-May-2010) /root/dummy.dd is not a block special device. Proceed anyway? (y,n) y Filesystem label= OS type: Linux Block size=1024 (log=0) Fragment size=1024 (log=0) Stride=0 blocks, Stripe width=0 blocks 104 inodes, 102400 blocks 5120 blocks (5.00%) reserved for the super user First data block=1 Maximum filesystem blocks=67371008 13 block groups 8192 blocks per group, 8192 fragments per group 8 inodes per group Superblock backups stored on blocks: 8193, 24577, 40961, 57345, 73729 Writing inode tables: done Creating journal (4096 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 37 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override.
[root@centos6 ~]# mkdir /mnt/dummy/ [root@centos6 ~]# mount -t ext3 -o loop $PWD/dummy.dd /mnt/dummy/ [root@centos6 dummy]# mount /dev/mapper/VolGroup-lv_root on / type ext4 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) devpts on /dev/pts type devpts (rw,gid=5,mode=620) tmpfs on /dev/shm type tmpfs (rw) /dev/mapper/VolGroup02-lv_home on /home type ext4 (rw) /dev/sda1 on /boot type ext4 (rw) none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw) sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw) /dev/loop0 on /mnt/dummy type ext3 (rw)
[root@centos6 ~]# df -h Filesystem Size Used Avail Use% マウント位置 /dev/mapper/VolGroup-lv_root 5.5G 2.9G 2.4G 55% / tmpfs 372M 0 372M 0% /dev/shm /dev/mapper/VolGroup02-lv_home 40G 20G 18G 53% /home /dev/sda1 485M 49M 411M 11% /boot /dev/loop0 100M 5.6M 90M 6% /mnt/dummy [root@centos6 dummy]# df -i Filesystem Inodes IUsed IFree IUse% マウント位置 /dev/mapper/VolGroup-lv_root 363600 81530 282070 23% / tmpfs 95147 1 95146 1% /dev/shm /dev/mapper/VolGroup02-lv_home 2621440 526347 2095093 21% /home /dev/sda1 128016 44 127972 1% /boot /dev/loop0 104 11 93 11% /mnt/dummy
[root@centos6 ~]# cd /mnt/dummy/ [root@centos6 dummy]# for I in `seq 1 100`; do touch ${I}; done touch: cannot touch `94': デバイスに空き領域がありません touch: cannot touch `95': デバイスに空き領域がありません touch: cannot touch `96': デバイスに空き領域がありません touch: cannot touch `97': デバイスに空き領域がありません touch: cannot touch `98': デバイスに空き領域がありません touch: cannot touch `99': デバイスに空き領域がありません touch: cannot touch `100': デバイスに空き領域がありません
[root@centos6 dummy]# df -h Filesystem Size Used Avail Use% マウント位置 /dev/mapper/VolGroup-lv_root 5.5G 2.9G 2.4G 55% / tmpfs 372M 0 372M 0% /dev/shm /dev/mapper/VolGroup02-lv_home 40G 20G 18G 53% /home /dev/sda1 485M 49M 411M 11% /boot /dev/loop0 100M 5.6M 90M 6% /mnt/dummy [root@centos6 dummy]# df -i Filesystem Inodes IUsed IFree IUse% マウント位置 /dev/mapper/VolGroup-lv_root 363600 81530 282070 23% / tmpfs 95147 1 95146 1% /dev/shm /dev/mapper/VolGroup02-lv_home 2621440 526347 2095093 21% /home /dev/sda1 128016 44 127972 1% /boot /dev/loop0 104 104 0 100% /mnt/dummy
なぜinodeを100個で指定して104個できるのか,なんで最初から11ほど消費しているのかは知りません.
いずれ必要になれば調べてみようと思います.