GlusterFS : レプリカ構成2017/06/21 |
GlusterFS によるストレージクラスターの設定です。
例として、2台の GlusterFS サーバーでレプリカ構成のボリュームを作成します。
全サーバーにデータのレプリカが保存される RAID1 のような構成です。
なお、当例ではサーバー2台のシンプルな構成ですが、GlusterFS
サーバーのボリュームは 2台以上構成も可能、且つ、ボリュームは複数クライアントからマウント可能です。
| +----------------------+ | +----------------------+ | [GlusterFS Server#1] |10.0.0.51 | 10.0.0.52| [GlusterFS Server#2] | | node01.srv.world +----------+----------+ node02.srv.world | | | | | +----------------------+ +----------------------+ |
前提として、クラスターを構成するノード群では GlusterFS に割り当てる領域は / パーティションとは別であることが推奨です。
( / 配下の任意のディレクトリでも設定は可能だが、非推奨のため、設定の際に強制オプションの付加が必要 )
|
|
[1] | |
[2] | 全ノードで、ボリュームに割り当てるディレクトリを作成しておきます。 ( 当例では、全ノードで sdb1 を /var/lib/glusterfs にマウント済み ) |
root@node01:~# mkdir -p /var/lib/glusterfs/replica |
[3] | いずれかのノードで以下のように設定します。 |
# 他のノードを探す root@node01:~# gluster peer probe node02 peer probe: success. # 状態を表示 root@node01:~# gluster peer status Number of Peers: 1 Hostname: node02 Uuid: a39156f3-32cb-451e-9e34-08ce504d72bb State: Peer in Cluster (Connected) # ボリュームを作成 root@node01:~# gluster volume create vol_replica replica 2 transport tcp \ node01:/var/lib/glusterfs/replica \ node02:/var/lib/glusterfs/replica volume create: vol_replica: success: please start the volume to access data # 作成したボリュームを起動 root@node01:~# gluster volume start vol_replica volume start: vol_replica: success # ボリューム情報確認 root@node01:~# gluster volume info Volume Name: vol_replica Type: Replicate Volume ID: 3691681b-6fb7-4c38-b636-5f7993eb1f61 Status: Started Snapshot Count: 0 Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: node01:/var/lib/glusterfs/replica Brick2: node02:/var/lib/glusterfs/replica Options Reconfigured: transport.address-family: inet performance.readdir-ahead: on nfs.disable: on |
[4] | クライアントから NFS マウントを利用する場合は、事前に必要なサービスの起動と、以下の設定の変更が必要です。 |
root@node01:~# gluster volume set vol_replica nfs.disable off volume set: success |
[5] |
GlusterFS ボリュームをマウントして利用するための
クライアント側の設定はこちらを参照ください。
|
Sponsored Link |
|