inodeが枯渇するとどうなるか

何年も前にinode枯渇問題に直面したことが何度かあったので,結果は知っているのですが,ちょっと詰まってしまった別件があり,現実逃避目的でとりあえず息抜きで試してみました.

どうみてもトーシロの検証でサーセン

[root@centos6 ~]# dd if=/dev/zero of=$PWD/dummy.dd bs=1M count=100
100+0 records in
100+0 records out
104857600 bytes (105 MB) copied, 3.81335 s, 27.5 MB/s
[root@centos6 ~]# mkfs.ext3 $PWD/dummy.dd -N 100
mke2fs 1.41.12 (17-May-2010)
/root/dummy.dd is not a block special device.
Proceed anyway? (y,n) y
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
Stride=0 blocks, Stripe width=0 blocks
104 inodes, 102400 blocks
5120 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=67371008
13 block groups
8192 blocks per group, 8192 fragments per group
8 inodes per group
Superblock backups stored on blocks: 
        8193, 24577, 40961, 57345, 73729

Writing inode tables: done                            
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done

This filesystem will be automatically checked every 37 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.
[root@centos6 ~]# mkdir /mnt/dummy/
[root@centos6 ~]# mount -t ext3 -o loop $PWD/dummy.dd /mnt/dummy/
[root@centos6 dummy]# mount
/dev/mapper/VolGroup-lv_root on / type ext4 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
tmpfs on /dev/shm type tmpfs (rw)
/dev/mapper/VolGroup02-lv_home on /home type ext4 (rw)
/dev/sda1 on /boot type ext4 (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
/dev/loop0 on /mnt/dummy type ext3 (rw)
[root@centos6 ~]# df -h
Filesystem            Size  Used Avail Use% マウント位置
/dev/mapper/VolGroup-lv_root
                      5.5G  2.9G  2.4G  55% /
tmpfs                 372M     0  372M   0% /dev/shm
/dev/mapper/VolGroup02-lv_home
                       40G   20G   18G  53% /home
/dev/sda1             485M   49M  411M  11% /boot
/dev/loop0            100M  5.6M   90M   6% /mnt/dummy
[root@centos6 dummy]# df -i
Filesystem            Inodes   IUsed   IFree IUse% マウント位置
/dev/mapper/VolGroup-lv_root
                      363600   81530  282070   23% /
tmpfs                  95147       1   95146    1% /dev/shm
/dev/mapper/VolGroup02-lv_home
                     2621440  526347 2095093   21% /home
/dev/sda1             128016      44  127972    1% /boot
/dev/loop0               104      11      93   11% /mnt/dummy
[root@centos6 ~]# cd /mnt/dummy/
[root@centos6 dummy]# for I in `seq 1 100`; do touch ${I}; done
touch: cannot touch `94': デバイスに空き領域がありません
touch: cannot touch `95': デバイスに空き領域がありません
touch: cannot touch `96': デバイスに空き領域がありません
touch: cannot touch `97': デバイスに空き領域がありません
touch: cannot touch `98': デバイスに空き領域がありません
touch: cannot touch `99': デバイスに空き領域がありません
touch: cannot touch `100': デバイスに空き領域がありません
[root@centos6 dummy]# df -h
Filesystem            Size  Used Avail Use% マウント位置
/dev/mapper/VolGroup-lv_root
                      5.5G  2.9G  2.4G  55% /
tmpfs                 372M     0  372M   0% /dev/shm
/dev/mapper/VolGroup02-lv_home
                       40G   20G   18G  53% /home
/dev/sda1             485M   49M  411M  11% /boot
/dev/loop0            100M  5.6M   90M   6% /mnt/dummy
[root@centos6 dummy]# df -i
Filesystem            Inodes   IUsed   IFree IUse% マウント位置
/dev/mapper/VolGroup-lv_root
                      363600   81530  282070   23% /
tmpfs                  95147       1   95146    1% /dev/shm
/dev/mapper/VolGroup02-lv_home
                     2621440  526347 2095093   21% /home
/dev/sda1             128016      44  127972    1% /boot
/dev/loop0               104     104       0  100% /mnt/dummy

なぜinodeを100個で指定して104個できるのか,なんで最初から11ほど消費しているのかは知りません.
いずれ必要になれば調べてみようと思います.