CentOS Stream 8
Sponsored Link

RAID 1 を構成する2021/04/14

 
稼働中のシステムに ディスク 2台を増設して RAID 1 を構成します。
[1] 当例では、以下のような構成のシステムに、新たに [sdb], [sdc] を追加して RAID 1 を構成します。
[root@dlp ~]#
df -h

Filesystem           Size  Used Avail Use% Mounted on
devtmpfs             3.8G     0  3.8G   0% /dev
tmpfs                3.8G     0  3.8G   0% /dev/shm
tmpfs                3.8G  8.6M  3.8G   1% /run
tmpfs                3.8G     0  3.8G   0% /sys/fs/cgroup
/dev/mapper/cs-root   71G  2.6G   69G   4% /
/dev/sda1           1014M  322M  693M  32% /boot
tmpfs                777M     0  777M   0% /run/user/0
[2] 増設した 2台のディスクにパーティションを作成し、RAID フラグをセットしておきます。
[root@dlp ~]#
parted --script /dev/sdb "mklabel gpt"

[root@dlp ~]#
parted --script /dev/sdc "mklabel gpt"

[root@dlp ~]#
parted --script /dev/sdb "mkpart primary 0% 100%"

[root@dlp ~]#
parted --script /dev/sdc "mkpart primary 0% 100%"

[root@dlp ~]#
parted --script /dev/sdb "set 1 raid on"

[root@dlp ~]#
parted --script /dev/sdc "set 1 raid on"
[3] RAID 1 を構成します。
# 関連ツールインストール

[root@dlp ~]#
dnf -y install mdadm
[root@dlp ~]#
mdadm --create /dev/md0 --level=raid1 --raid-devices=2 /dev/sdb1 /dev/sdc1

mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

# 状態確認 ( [UU] となっていれば OK )

[root@dlp ~]#
cat /proc/mdstat

Personalities : [raid1]
md0 : active raid1 sdc1[1] sdb1[0]
      83817472 blocks super 1.2 [2/2] [UU]
      [=>...................]  resync =  6.7% (5697984/83817472) finish=9.3min speed=138975K/sec

unused devices: <none>

# 同期が完了すると以下のようなステータスになる

# 以上で RAID 1 設定完了

[root@dlp ~]#
cat /proc/mdstat

Personalities : [raid1]
md0 : active raid1 sdc1[1] sdb1[0]
      83817472 blocks super 1.2 [2/2] [UU]

unused devices: <none>

[root@dlp ~]#
vi /etc/sysconfig/raid-check
# 57行目 : Cron で定期チェックする RAID デバイス追記

# Cron 設定は [/etc/cron.d/raid-check]

CHECK_DEVS="
md0
"
[4] RAID デバイスへのファイルシステムの作成とシステムへのマウントは通常通りです。
# 例として xfs でフォーマットして /mnt にマウント

[root@dlp ~]#
mkfs.xfs /dev/md0

meta-data=/dev/md0               isize=512    agcount=4, agsize=5238592 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=1    bigtime=1 inobtcount=1
data     =                       bsize=4096   blocks=20954368, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=10231, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
Discarding blocks...Done.

[root@dlp ~]#
mount /dev/md0 /mnt

[root@dlp ~]#
df -hT

Filesystem          Type      Size  Used Avail Use% Mounted on
devtmpfs            devtmpfs  4.0M     0  4.0M   0% /dev
tmpfs               tmpfs     3.9G     0  3.9G   0% /dev/shm
tmpfs               tmpfs     1.6G  8.6M  1.6G   1% /run
/dev/mapper/cs-root xfs        71G  2.2G   69G   3% /
/dev/vda1           xfs      1014M  240M  775M  24% /boot
tmpfs               tmpfs     794M     0  794M   0% /run/user/0
/dev/md0            xfs        80G  603M   80G   1% /mnt

# fstab に記載する場合は
# md*** の名前はハードウェア構成の変更等により変わるため UUID で記載する

[root@dlp ~]#
blkid | grep md

/dev/md0: UUID="34957f99-1df9-4119-b080-8aaa3a2a80ff" TYPE="xfs"

[root@dlp ~]#
vi /etc/fstab
# 調べた UUID で記述

/dev/mapper/cs-root     /                       xfs     defaults        0 0
UUID=a182e1b1-d17d-4bb8-89cd-77c87288674e /boot xfs     defaults        0 0
/dev/mapper/cs-swap     none                    swap    defaults        0 0
UUID=34957f99-1df9-4119-b080-8aaa3a2a80ff /mnt  xfs     defaults        0 0

# 以上で md*** の名前が変わった場合も正常にマウントされる

[root@dlp ~]#
df -hT /mnt

Filesystem     Type  Size  Used Avail Use% Mounted on
/dev/md127     xfs    80G  603M   80G   1% /mnt
[5] いずれか一方のディスクが故障した場合は、以下のようにして RAID ARRAY を再構成できます。
# 異常発生時にはステータスが以下のようになる

[root@dlp ~]#
cat /proc/mdstat

Personalities : [raid1]
md0 : active (auto-read-only) raid1 sdb1[0]
      83817472 blocks super 1.2 [2/1] [U_]

unused devices: <none>

# 故障ディスクを新しいディスクと交換し、[2] の手順でパーティション作成する

# その後は以下のように、RAID ARRAY に追加する

[root@dlp ~]#
mdadm --manage /dev/md0 --add /dev/sdc1

mdadm: added /dev/sdc1
[root@dlp ~]#
cat /proc/mdstat

Personalities : [raid1]
md0 : active raid1 sdc1[2] sdb1[0]
      83817472 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  2.4% (2028736/83817472) finish=8.7min speed=156056K/sec

unused devices: <none>
関連コンテンツ