Fedora 27
Sponsored Link

Docker : Docker Swarm を利用する2017/12/21

 
Docker Swarm を利用して、複数の Docker ホストでクラスター環境を構成します。
当例では以下の 3台の Docker ホストを使用して設定します。
Swarm クラスターではマネージャーノード [Manager nodes] とワーカーノード [Worker nodes] の二つの役割がありますが、 いずれの役割も複数ノード設定可能ですが、当例では以下のように node01 をマネージャーノード、その他をワーカーノードとして設定します。
 -----------+---------------------------+--------------------------+------------
            |                           |                          |
        eth0|10.0.0.51              eth0|10.0.0.52             eth0|10.0.0.53
 +----------+-----------+   +-----------+----------+   +-----------+----------+
 | [ node01.srv.world ] |   | [ node02.srv.world ] |   | [ node03.srv.world ] |
 |       Manager        |   |        Worker        |   |        Worker        |
 +----------------------+   +----------------------+   +----------------------+

[1]
当例では、Firewalld 停止 および SELnux は Permissive または Disabled を前提に進めます。
[2]
[3] マネージャーノードで Swarm クラスターの設定をします。
[root@node01 ~]#
docker swarm init

Swarm initialized: current node (no8wxh1rbetehdt7xslsxn3ik) is now a manager.

To add a worker to this swarm, run the following command:

    docker swarm join \
    --token SWMTKN-1-3oo361b6e9nzooxnm59r5o39res06mdy1iaaldytgo2ka366c4-crl0p2toqjhorkpykou5dzcx5 \
    10.0.0.51:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
[4] ワーカーノードから Swarm クラスターへの参加を実行します。
実行コマンドはマネージャーノードで swarm init した際に表示されたコマンドをそのまま実行すれば OK です。
[root@node02 ~]#
docker swarm join \
--token SWMTKN-1-3oo361b6e9nzooxnm59r5o39res06mdy1iaaldytgo2ka366c4-crl0p2toqjhorkpykou5dzcx5 \
10.0.0.51:2377

This node joined a swarm as a worker.
[5] ワーカーノードが正常に Swarm クラスターに参加できていれば、マネージャーノードで node ls するとクラスター参加ノードの一覧が表示されます。
[root@node01 ~]#
docker node ls

ID                           HOSTNAME          STATUS  AVAILABILITY  MANAGER STATUS
5o8chkmix2l536vjje7x320vt    node03.srv.world  Ready   Active
no8wxh1rbetehdt7xslsxn3ik *  node01.srv.world  Ready   Active        Leader
pa1w0zbch7j3q781155xkpvyq    node02.srv.world  Ready   Active
[6]
Swarm クラスターが正常に設定できたら、次に Swarm クラスターで提供するサービスを設定します。
当例では、こちらの例で作成したような httpd サービスを提供するコンテナイメージを利用して設定します。 コンテナイメージは全ノードで準備しておきます。ただし、当例では動作確認のため HTTP アクセス時の表示メッセージはノード毎に異なるものを設定しています。
[7] コンテナイメージが準備できたら、マネージャーノードでサービスを定義します。
サービス起動後は、マネージャーノードの設定したポート宛てにアクセスすると、サービスに設定したレプリカのノード数分の Dockerノードが応答します。 クラスター内のノードへのアクセスはラウンドロビン方式で振り分けられるため、アクセスごとに応答ノードが切り替わります。
[root@node01 ~]#
docker images

REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
web_server          latest              4e9cb1f9e9d9        10 minutes ago      473 MB
docker.io/fedora    latest              422dc563ca32        5 weeks ago         252 MB

# レプリカ数 2 でサービスを新規作成する

[root@node01 ~]#
docker service create --name swarm_cluster --replicas=2 -p 80:80 web_server:latest

x7zl0nmojs73syt21gzrije8j
# サービスの一覧を表示する

[root@node01 ~]#
docker service ls

ID            NAME           MODE        REPLICAS  IMAGE
x7zl0nmojs73  swarm_cluster  replicated  2/2       web_server:latest

# サービスを調査する

[root@node01 ~]#
docker service inspect swarm_cluster --pretty

ID:             x7zl0nmojs73syt21gzrije8j
Name:           swarm_cluster
Service Mode:   Replicated
 Replicas:      2
Placement:
UpdateConfig:
 Parallelism:   1
 On failure:    pause
 Max failure ratio: 0
ContainerSpec:
 Image:         web_server:latest
Resources:
Endpoint Mode:  vip
Ports:
 PublishedPort 80
  Protocol = tcp
  TargetPort = 80

# サービスの稼働状況を表示する

[root@node01 ~]#
docker service ps swarm_cluster

ID            NAME             IMAGE              NODE              DESIRED  CURRENT STATE         ...
h8ovakrnrw6y  swarm_cluster.1  web_server:latest  node01.srv.world  Running  Running 49 seconds ago
ncjffinn2hr5  swarm_cluster.2  web_server:latest  node03.srv.world  Running  Running 49 seconds ago

# マネージャーノードにアクセスして動作確認

# ラウンドロビン方式で各ノードへ振り分けられる

[root@node01 ~]#
curl http://node01.srv.world/

node03
[root@node01 ~]#
curl http://node01.srv.world/

node01
[root@node01 ~]#
curl http://node01.srv.world/

node03
[root@node01 ~]#
curl http://node01.srv.world/

node01
[8] 設定したサービスのレプリカ数を変更したい場合は以下のように設定します。
# レプリカ数を 3 に変更する

[root@node01 ~]#
docker service scale swarm_cluster=3

swarm_cluster scaled to 3
[root@node01 ~]#
docker service ps swarm_cluster

ID     NAME             IMAGE              NODE              DESIRED STATE  CURRENT STATE          ...
yhm... swarm_cluster.1  web_server:latest  node01.srv.world  Running        Running 29 seconds ago
icc... swarm_cluster.2  web_server:latest  node03.srv.world  Running        Running 28 seconds ago
e4n... swarm_cluster.3  web_server:latest  node02.srv.world  Running        Preparing 2 seconds ago

# アクセスして動作確認

[root@node01 ~]#
curl http://node01.srv.world/

node02
[root@node01 ~]#
curl http://node01.srv.world/

node03
[root@node01 ~]#
curl http://node01.srv.world/

node01
関連コンテンツ