SLES 15
Sponsored Link

GlusterFS : レプリカ構成2019/01/17

 
GlusterFS によるストレージクラスターの設定です。
例として、2台の GlusterFS サーバーでレプリカ構成のボリュームを作成します。
全サーバーにデータのレプリカが保存される RAID1 のような構成です。
なお、当例ではサーバー2台のシンプルな構成ですが、GlusterFS サーバーのボリュームは 2台以上構成も可能、且つ、ボリュームは複数クライアントからマウント可能です。
                                  |
+----------------------+          |          +----------------------+
| [GlusterFS Server#1] |10.0.0.51 | 10.0.0.52| [GlusterFS Server#2] |
|   node01.srv.world   +----------+----------+   node02.srv.world   |
|                      |                     |                      |
+----------------------+                     +----------------------+

 
前提として、クラスターを構成するノード群では GlusterFS に割り当てる領域は / パーティションとは別であることが推奨です。 ( / 配下の任意のディレクトリでも設定は可能だが、非推奨のため、設定の際に強制オプションの付加が必要 )
[1]
[2] 全ノードで、ボリュームに割り当てるディレクトリを作成しておきます。
( 当例では、全ノードで sdb1 を /glusterfs にマウント済み )
node01:~ #
mkdir -p /glusterfs/replica

[3] いずれかのノードで以下のように設定します。
# 他のノードを探す

node01:~ #
gluster peer probe node02

peer probe: success.
# 状態を表示

node01:~ #
gluster peer status

Number of Peers: 1

Hostname: node02
Uuid: fa0c1a0c-9738-4554-8ac8-cd84f1de72af
State: Peer in Cluster (Connected)

# ボリュームを作成

node01:~ #
gluster volume create vol_replica replica 2 transport tcp \
node01:/glusterfs/replica \
node02:/glusterfs/replica

volume create: vol_replica: success: please start the volume to access data
# 作成したボリュームを起動

node01:~ #
gluster volume start vol_replica

volume start: vol_replica: success
# ボリューム情報確認

node01:~ #
gluster volume info


Volume Name: vol_replica
Type: Replicate
Volume ID: 4cb84fdf-421d-4b26-8ee4-da1d28598b99
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: node01:/glusterfs/replica
Brick2: node02:/glusterfs/replica
Options Reconfigured:
transport.address-family: inet
nfs.disable: on
performance.client-io-threads: off
[4]
GlusterFS ボリュームをマウントして利用するための クライアント側の設定はこちらを参照ください
関連コンテンツ