CentOS 7
Sponsored Link

OpenStack Juno : ストレージを利用する(GlusterFS)2015/01/12

 
仮想マシンインスタンスには一定容量のディスクは割り当てられていますが、 ディスクが足りなくなった場合やデータは別で保管しておきたい場合等は、 Cinder が提供するブロックストレージ機能を利用することができます。
ここではバックエンドとして GlusterFS を使った仮想ストレージを設定します。
                                      +------------------+           +------------------+
                             10.0.0.50| [ Storage Node ] |  10.0.0.61|                  |
+------------------+            +-----+   Cinder-Volume  |     +-----+   GlusterFS #1   |
| [ Control Node ] |            | eth0|                  |     | eth0|                  |
|     Keystone     |10.0.0.30   |     +------------------+     |     +------------------+
|      Glance      |------------+------------------------------+
|     Nova API     |eth0        |     +------------------+     |     +------------------+
|    Cinder API    |            | eth0| [ Compute Node ] |     | eth0|                  |
+------------------+            +-----+   Nova Compute   |     +-----+   GlusterFS #2   |
                             10.0.0.51|                  |  10.0.0.62|                  |
                                      +------------------+           +------------------+

[1]
こちらを参考に LAN 内に GlusterFS サーバーを用意してください。
なお、ここの例では「gfs01」と「gfs02」で構築したレプリカ構成の「vol_replica」ボリュームを利用するように設定します。
[2] Storage ノードの設定です。
# EPEL からインストール

[root@storage ~]#
yum --enablerepo=epel -y install glusterfs glusterfs-fuse
[root@storage ~]#
vi /etc/cinder/cinder.conf
# [DEFAULT] セクション内の適当な場所へ追記

volume_driver=cinder.volume.drivers.glusterfs.GlusterfsDriver
glusterfs_shares_config=/etc/cinder/glusterfs_shares
glusterfs_mount_point_base=/var/lib/cinder/mnt
[root@storage ~]#
vi /etc/cinder/glusterfs_shares
# 新規作成:GlusterFS ボリュームを指定 (複数ある場合は1行ずつ列挙)

gfs01.srv.world:/vol_replica
[root@storage ~]#
chmod 640 /etc/cinder/glusterfs_shares

[root@storage ~]#
chgrp cinder /etc/cinder/glusterfs_shares

[root@storage ~]#
mkdir /var/lib/cinder/mnt

[root@storage ~]#
chown cinder. /var/lib/cinder/mnt

[root@storage ~]#
systemctl restart openstack-cinder-volume

[3] GlusterFS マウントできるように Compute ノードの設定を変更します。
# EPEL からインストール

[root@node01 ~]#
yum --enablerepo=epel -y install glusterfs glusterfs-fuse
[root@node01 ~]#
vi /etc/nova/nova.conf
# [DEFAULT] セクション内の適当な場所へ追記

volume_drivers="glusterfs=nova.virt.libvirt.volume.LibvirtGlusterfsVolumeDriver"
[root@node01 ~]#
systemctl restart openstack-nova-compute

[4] 例として「disk01」という名前のボリュームを10GBで作成してみます。作業場所はどこでもよいですが、ここでは Control ノード上で行います。
[root@dlp ~(keystone)]#
cinder create --display_name disk01 10

+---------------------+--------------------------------------+
|       Property      |                Value                 |
+---------------------+--------------------------------------+
|     attachments     |                  []                  |
|  availability_zone  |                 nova                 |
|       bootable      |                false                 |
|      created_at     |      2015-01-12T13:47:42.608332      |
| display_description |                 None                 |
|     display_name    |                disk01                |
|      encrypted      |                False                 |
|          id         | edd2f68d-327b-41cd-966c-e46833a9309c |
|       metadata      |                  {}                  |
|         size        |                  10                  |
|     snapshot_id     |                 None                 |
|     source_volid    |                 None                 |
|        status       |               creating               |
|     volume_type     |                 None                 |
+---------------------+--------------------------------------+

[root@dlp ~(keystone)]#
cinder list

+--------------------------------------+-----------+--------------+------+-------------+----------+-------------+
|                  ID                  |   Status  | Display Name | Size | Volume Type | Bootable | Attached to |
+--------------------------------------+-----------+--------------+------+-------------+----------+-------------+
| edd2f68d-327b-41cd-966c-e46833a9309c | available |    disk01    |  10  |     None    |  false   |             |
+--------------------------------------+-----------+--------------+------+-------------+----------+-------------+
[5] 作成したボリュームをインスタンスに接続してみます。
以下の例では、「/dev/vdb」というデバイスとしてインスタンスに接続されました。
以上でインスタンス上から「/dev/vdb」にファイルシステムを作成して、ストレージとして利用することができます。
[root@dlp ~(keystone)]#
nova list

+-----------+-----------+---------+------------+-------------+-----------------------------------+
| ID        | Name      | Status  | Task State | Power State | Networks                          |
+-----------+-----------+---------+------------+-------------+-----------------------------------+
| df11d64d- | CentOS_70 | SHUTOFF | -          | Shutdown    | int_net=192.168.100.6, 10.0.0.201 |
+-----------+-----------+---------+------------+-------------+-----------------------------------+

[root@dlp ~(keystone)]#
nova volume-attach CentOS_70 edd2f68d-327b-41cd-966c-e46833a9309c auto

+----------+--------------------------------------+
| Property | Value                                |
+----------+--------------------------------------+
| device   | /dev/vdb                             |
| id       | edd2f68d-327b-41cd-966c-e46833a9309c |
| serverId | df11d64d-dd72-4d1a-bf0a-5cd764c2f863 |
| volumeId | edd2f68d-327b-41cd-966c-e46833a9309c |
+----------+--------------------------------------+

# 接続された仮想ディスクは「in-use」ステータスになる

[root@dlp ~(keystone)]#
cinder list

+--------------------------------------+--------+--------------+------+-------------+----------+--------------------------------------+
|                  ID                  | Status | Display Name | Size | Volume Type | Bootable |             Attached to              |
+--------------------------------------+--------+--------------+------+-------------+----------+--------------------------------------+
| edd2f68d-327b-41cd-966c-e46833a9309c | in-use |    disk01    |  10  |     None    |  false   | df11d64d-dd72-4d1a-bf0a-5cd764c2f863 |
+--------------------------------------+--------+--------------+------+-------------+----------+--------------------------------------+
関連コンテンツ