CentOS 7
Sponsored Link

Ceph Nautilus : ブロックデバイスを利用する
2019/06/12
 
以下のような構成の Ceph クラスターストレージを、[client01] クライアントから利用できるように設定します。
                                         |
        +--------------------+           |           +----------------------+
        |   [dlp.srv.world]  |10.0.0.30  |  10.0.0.31| [client01.srv.world] |
        |    Ceph-Ansible    +-----------+-----------+                      |
        |                    |           |           |                      |
        +--------------------+           |           +----------------------+
            +----------------------------+----------------------------+
            |                            |                            |
            |10.0.0.51                   |10.0.0.52                   |10.0.0.53 
+-----------+-----------+    +-----------+-----------+    +-----------+-----------+
|   [node01.srv.world]  |    |   [node02.srv.world]  |    |   [node03.srv.world]  |
|     Object Storage    +----+     Object Storage    +----+     Object Storage    |
|     Monitor Daemon    |    |                       |    |                       |
|     Manager Daemon    |    |                       |    |                       |
+-----------------------+    +-----------------------+    +-----------------------+

 
例として、クライアント上でブロックデバイスを作成してマウントします。
[1] その後、管理ノード上から Ansible Playbook を利用してクライアントの設定を行います。
Ansible Playbook はこちらのリンク先 [5] の通り、クラスター構築時に設定したファイルをベースに変更を加えて利用します
[cent@dlp ~]$
sudo vi /usr/share/ceph-ansible/group_vars/clients.yml
# 新規作成

copy_admin_key: true
[cent@dlp ~]$
sudo vi /etc/ansible/hosts
# 最終行に追記

[clients]
client01.srv.world

[cent@dlp ~]$
cd /usr/share/ceph-ansible

[cent@dlp ceph-ansible]$
ansible-playbook site.yml --limit=clients

.....
.....
PLAY RECAP *********************************************************************
client01.srv.world              : ok=89   changed=12   unreachable=0    failed=0    skipped=184  rescued=0    ignored=0


INSTALLER STATUS ***************************************************************
Install Ceph Client         : Complete (0:02:24)
.....
.....
[2] クライアント上でのブロックデバイスの作成とマウントです。
# デフォルト RBD プール作成

[cent@client01 ~]$
sudo ceph osd pool create rbd 8

pool 'rbd' created
[cent@client01 ~]$
sudo rbd pool init rbd

# 10G のディスクを作成

[cent@client01 ~]$
sudo rbd create rbd01 --size 10G --image-feature layering
# 確認

[cent@client01 ~]$
sudo rbd ls -l

NAME    SIZE PARENT FMT PROT LOCK
rbd01 10 GiB          2

# 作成したイメージをデバイスにマッピング

[cent@client01 ~]$
sudo rbd map rbd01

/dev/rbd0
# 確認

[cent@client01 ~]$
rbd showmapped

id pool namespace image snap device
0  rbd            rbd01 -    /dev/rbd0

# XFS でフォーマット

[cent@client01 ~]$
sudo mkfs.xfs /dev/rbd0

meta-data=/dev/rbd0              isize=512    agcount=16, agsize=163840 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=2621440, imaxpct=25
         =                       sunit=1024   swidth=1024 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

# マウント

[cent@client01 ~]$
sudo mount /dev/rbd0 /mnt

[cent@client01 ~]$
df -hT

Filesystem              Type      Size  Used Avail Use% Mounted on
/dev/mapper/centos-root xfs        26G  1.5G   25G   6% /
devtmpfs                devtmpfs  3.9G     0  3.9G   0% /dev
tmpfs                   tmpfs     3.9G     0  3.9G   0% /dev/shm
tmpfs                   tmpfs     3.9G  8.6M  3.9G   1% /run
tmpfs                   tmpfs     3.9G     0  3.9G   0% /sys/fs/cgroup
/dev/vda1               xfs      1014M  250M  765M  25% /boot
tmpfs                   tmpfs     799M     0  799M   0% /run/user/0
tmpfs                   tmpfs     799M     0  799M   0% /run/user/1000
/dev/rbd0               xfs        10G   33M   10G   1% /mnt
関連コンテンツ