CentOS 7
Sponsored Link

Gluster 4.0 : レプリカ構成
2016/08/06
 
GlusterFS によるストレージクラスターの設定です。
例として、2台の GlusterFS サーバーでレプリカ構成のボリュームを作成します。
全サーバーにデータのレプリカが保存される RAID1 のような構成です。
なお、当例ではサーバー2台のシンプルな構成ですが、GlusterFS サーバーのボリュームは 2台以上構成も可能、且つ、ボリュームは複数クライアントからマウント可能です。
                                  |
+----------------------+          |          +----------------------+
| [GlusterFS Server#1] |10.0.0.51 | 10.0.0.52| [GlusterFS Server#2] |
|   node01.srv.world   +----------+----------+   node02.srv.world   |
|                      |                     |                      |
+----------------------+                     +----------------------+

 
前提として、クラスターを構成するノード群では GlusterFS に割り当てる領域は / パーティションとは別であることが推奨です。 ( / 配下の任意のディレクトリでも設定は可能だが、非推奨のため、設定の際に強制オプションの付加が必要 )
[1]
[2] 全ノードで、ボリュームに割り当てるディレクトリを作成しておきます。
( 当例では、全ノードで sdb1 を /glusterfs にマウント済み )
[root@node01 ~]#
mkdir /glusterfs/replica

[3] いずれかのノードで以下のように設定します。
# 他のノードを探す

[root@node01 ~]#
gluster peer probe node02

peer probe: success.
# 状態を表示

[root@node01 ~]#
gluster peer status

Number of Peers: 1

Hostname: node02
Uuid: 0e1917c8-7cd0-4578-af65-46a1489b10b1
State: Peer in Cluster (Connected)

# ボリュームを作成

[root@node01 ~]#
gluster volume create vol_replica replica 2 transport tcp \
node01:/glusterfs/replica \
node02:/glusterfs/replica

volume create: vol_replica: success: please start the volume to access data
# 作成したボリュームを起動

[root@node01 ~]#
gluster volume start vol_replica

volume start: vol_replica: success
# ボリューム情報確認

[root@node01 ~]#
gluster volume info


Volume Name: vol_replica
Type: Replicate
Volume ID: f496e38f-9238-4721-92bf-78fbaace7758
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: node01:/glusterfs/replica
Brick2: node02:/glusterfs/replica
Options Reconfigured:
transport.address-family: inet
nfs.disable: on
performance.client-io-threads: off
[4]
GlusterFS ボリュームをマウントして利用するための クライアント側の設定はこちらを参照ください
 
Tweet