Fedora 26
Sponsored Link

Docker : Docker Swarm を利用する2017/07/30

 
Docker Swarm を利用して、複数の Docker ホストでクラスター環境を構成します。
当例では以下の 3台の Docker ホストを使用して設定します。
Swarm クラスターではマネージャーノード [Manager nodes] とワーカーノード [Worker nodes] の二つの役割がありますが、 いずれの役割も複数ノード設定可能ですが、当例では以下のように node01 をマネージャーノード、その他をワーカーノードとして設定します。
 -----------+---------------------------+--------------------------+------------
            |                           |                          |
        eth0|10.0.0.51              eth0|10.0.0.52             eth0|10.0.0.53
 +----------+-----------+   +-----------+----------+   +-----------+----------+
 | [ node01.srv.world ] |   | [ node02.srv.world ] |   | [ node03.srv.world ] |
 |       Manager        |   |        Worker        |   |        Worker        |
 +----------------------+   +----------------------+   +----------------------+

[1]
当例では、Firewalld 停止 および SELnux は Permissive または Disabled を前提に進めます。
[2]
[3] マネージャーノードで Swarm クラスターの設定をします。
[root@node01 ~]#
docker swarm init

Swarm initialized: current node (lq0eemyzbeu3h4knzr17fax24) is now a manager.

To add a worker to this swarm, run the following command:

    docker swarm join \
    --token SWMTKN-1-4gx8p7ssh1s16wbfmtioxdd4cq51hrnqkb8jc1okcgoeogf88j-b3jz4624lysm7p5fbu632cqwq \
    10.0.0.51:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
[4] ワーカーノードから Swarm クラスターへの参加を実行します。
実行コマンドはマネージャーノードで swarm init した際に表示されたコマンドをそのまま実行すれば OK です。
[root@node02 ~]#
docker swarm join \
--token SWMTKN-1-4gx8p7ssh1s16wbfmtioxdd4cq51hrnqkb8jc1okcgoeogf88j-b3jz4624lysm7p5fbu632cqwq \
10.0.0.51:2377

This node joined a swarm as a worker.
[5] ワーカーノードが正常に Swarm クラスターに参加できていれば、マネージャーノードで node ls するとクラスター参加ノードの一覧が表示されます。
[root@node01 ~]#
docker node ls

ID                           HOSTNAME          STATUS  AVAILABILITY  MANAGER STATUS
lq0eemyzbeu3h4knzr17fax24 *  node01.srv.world  Ready   Active        Leader
mi4u40lwmp9lxwaatkeiukmte    node03.srv.world  Ready   Active
nl3g3tvusrdf9kxavpfy73ges    node02.srv.world  Ready   Active
[6]
Swarm クラスターが正常に設定できたら、次に Swarm クラスターで提供するサービスを設定します。
当例では、こちらの例で作成したような httpd サービスを提供するコンテナイメージを利用して設定します。 コンテナイメージは全ノードで準備しておきます。ただし、当例では動作確認のため HTTP アクセス時の表示メッセージはノード毎に異なるものを設定しています。
[7] コンテナイメージが準備できたら、マネージャーノードでサービスを定義します。
サービス起動後は、マネージャーノードの設定したポート宛てにアクセスすると、サービスに設定したレプリカのノード数分の Dockerノードが応答します。 クラスター内のノードへのアクセスはラウンドロビン方式で振り分けられるため、アクセスごとに応答ノードが切り替わります。
[root@node01 ~]#
docker images

REPOSITORY                          TAG       IMAGE ID        CREATED          SIZE
web_server                          latest    3c04799a039b    40 minutes ago   461 MB
registry.fedoraproject.org/fedora   latest    7f17e6b4a386    4 weeks ago      232 MB

# レプリカ数 2 でサービスを新規作成する

[root@node01 ~]#
docker service create --name swarm_cluster --replicas=2 -p 80:80 web_server:latest

7xg4yssy516xwgkjx2vxbw05d
# サービスの一覧を表示する

[root@node01 ~]#
docker service ls

ID            NAME           MODE        REPLICAS  IMAGE
5divuvy0wzeh  swarm_cluster  replicated  2/2       web_server:latest

# サービスを調査する

[root@node01 ~]#
docker service inspect swarm_cluster --pretty

ID:             5divuvy0wzeh0og4cqyjoak28
Name:           swarm_cluster
Service Mode:   Replicated
 Replicas:      2
Placement:
UpdateConfig:
 Parallelism:   1
 On failure:    pause
 Max failure ratio: 0
ContainerSpec:
 Image:         web_server:latest
Resources:
Endpoint Mode:  vip
Ports:
 PublishedPort 80
  Protocol = tcp
  TargetPort = 80

# サービスの稼働状況を表示する

[root@node01 ~]#
docker service ps swarm_cluster

ID            NAME             IMAGE              NODE              DESIRED STATE  CURRENT STATE   ERROR..
c6nzr..  swarm_cluster.1  web_server:latest  node01.srv.world  Running      Running 30 seconds ago
sqs7k..  swarm_cluster.2  web_server:latest  node03.srv.world  Running      Running 30 seconds ago

# マネージャーノードにアクセスして動作確認

# ラウンドロビン方式で各ノードへ振り分けられる

[root@node01 ~]#
curl http://node01.srv.world/

node03
[root@node01 ~]#
curl http://node01.srv.world/

node01
[root@node01 ~]#
curl http://node01.srv.world/

node03
[root@node01 ~]#
curl http://node01.srv.world/

node01
[8] 設定したサービスのレプリカ数を変更したい場合は以下のように設定します。
# レプリカ数を 3 に変更する

[root@node01 ~]#
docker service scale swarm_cluster=3

swarm_cluster scaled to 3
[root@node01 ~]#
docker service ps swarm_cluster

ID            NAME             IMAGE              NODE              DESIRED STATE  CURRENT STATE   ERROR..
c6nzr..  swarm_cluster.1  web_server:latest  node01.srv.world  Running      Running 2 minutes ago
sqs7k..  swarm_cluster.2  web_server:latest  node03.srv.world  Running      Running 2 minutes ago
442hb..  swarm_cluster.3  web_server:latest  node02.srv.world  Running      Preparing 4 seconds ago

# アクセスして動作確認

[root@node01 ~]#
curl http://node01.srv.world/

node02
[root@node01 ~]#
curl http://node01.srv.world/

node03
[root@node01 ~]#
curl http://node01.srv.world/

node01
関連コンテンツ