Fedora 36
Sponsored Link

Kubernetes : Master ノードの設定2022/05/24

 
Kubeadm をインストールして、マルチノード Kubernetes クラスターを構成します。
当例では以下のように 3 台のノードを使用して設定します。
-----------+---------------------------+--------------------------+------------
           |                           |                          |
       eth0|10.0.0.30              eth0|10.0.0.51             eth0|10.0.0.52
+----------+-----------+   +-----------+----------+   +-----------+----------+
|   [ dlp.srv.world ]  |   | [ node01.srv.world ] |   | [ node02.srv.world ] |
|      Master Node     |   |      Worker Node     |   |      Worker Node     |
+----------------------+   +----------------------+   +----------------------+

[1]
[2]
Master ノードで初期セットアップします。
[apiserver-advertise-address] には Kubernetes API サーバーがリスンする IP アドレスを指定します。
指定しない場合は、デフォルトゲートウェイに設定しているネットワークと同じネットワークに属するネットワークインターフェースの IP アドレスが設定されます。 ネットワークインターフェースを 2 つ以上持っており 且つ デフォルトゲートウェイのネットワークとは異なる IP アドレスでリスンしたい場合は指定します。 そうでない場合は [apiserver-advertise-address] 無しでも OK です。
[--pod-network-cidr] には、Pod Network が利用するネットワークを指定します。
Pod Network を構成するためのプラグインはいくつかのソフトウェアから選択可能です。(詳細は下記リンク参照)
  ⇒ https://kubernetes.io/docs/concepts/cluster-administration/networking/
当例では Calico で進めます。
[root@dlp ~]#
kubeadm init --apiserver-advertise-address=10.0.0.30 --pod-network-cidr=192.168.0.0/16 --cri-socket=unix:///var/run/crio/crio.sock

[init] Using Kubernetes version: v1.23.6
[preflight] Running pre-flight checks
        [WARNING Swap]: swap is enabled; production deployments should disable swap unless testing the NodeSwap feature gate of the kubelet
[preflight] Pulling images required for setting up a Kubernetes cluster
[preflight] This might take a minute or two, depending on the speed of your internet connection
[preflight] You can also perform this action in beforehand using 'kubeadm config images pull'
[certs] Using certificateDir folder "/etc/kubernetes/pki"
[certs] Generating "ca" certificate and key
[certs] Generating "apiserver" certificate and key

.....
.....

Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

Alternatively, if you are the root user, you can run:

  export KUBECONFIG=/etc/kubernetes/admin.conf

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

Then you can join any number of worker nodes by running the following on each as root:

# 以下のコマンドは Worker ノードからのクラスター Join の際に実行するため控えておく
kubeadm join 10.0.0.30:6443 --token 5i3go2.89578jdic0s79cgf \
        --discovery-token-ca-cert-hash sha256:17c23c7660ad12a3b13c524b6944b4e3db9f9b82f041c57ba6caacac95ebc84c

# クラスター管理ユーザーの設定
# 一般ユーザーを管理ユーザーとする場合は、該当ユーザー自身で sudo cp/chown ***

[root@dlp ~]#
mkdir -p $HOME/.kube

[root@dlp ~]#
cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

[root@dlp ~]#
chown $(id -u):$(id -g) $HOME/.kube/config
[3] Calico での Pod Network を構成します。
[root@dlp ~]#
wget https://docs.projectcalico.org/manifests/calico.yaml

[root@dlp ~]#
kubectl apply -f calico.yaml

configmap/calico-config created
customresourcedefinition.apiextensions.k8s.io/bgpconfigurations.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/bgppeers.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/blockaffinities.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/caliconodestatuses.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/clusterinformations.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/felixconfigurations.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/globalnetworkpolicies.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/globalnetworksets.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/hostendpoints.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/ipamblocks.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/ipamconfigs.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/ipamhandles.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/ippools.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/ipreservations.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/kubecontrollersconfigurations.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/networkpolicies.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/networksets.crd.projectcalico.org created
clusterrole.rbac.authorization.k8s.io/calico-kube-controllers created
clusterrolebinding.rbac.authorization.k8s.io/calico-kube-controllers created
clusterrole.rbac.authorization.k8s.io/calico-node created
clusterrolebinding.rbac.authorization.k8s.io/calico-node created
daemonset.apps/calico-node created
serviceaccount/calico-node created
deployment.apps/calico-kube-controllers created
serviceaccount/calico-kube-controllers created
poddisruptionbudget.policy/calico-kube-controllers created

# 確認 : STATUS = Ready であれば OK

[root@dlp ~]#
kubectl get nodes

NAME            STATUS   ROLES                  AGE     VERSION
dlp.srv.world   Ready    control-plane,master   2m42s   v1.23.6

# 確認 : 全て Running であれば OK

[root@dlp ~]#
kubectl get pods -A

NAMESPACE     NAME                                      READY   STATUS    RESTARTS   AGE
kube-system   calico-kube-controllers-6b77fff45-8r7rt   1/1     Running   0          57s
kube-system   calico-node-l4lvn                         1/1     Running   0          57s
kube-system   coredns-64897985d-65gfr                   1/1     Running   0          2m45s
kube-system   coredns-64897985d-7g4ph                   1/1     Running   0          2m45s
kube-system   etcd-dlp.srv.world                        1/1     Running   0          2m51s
kube-system   kube-apiserver-dlp.srv.world              1/1     Running   0          3m1s
kube-system   kube-controller-manager-dlp.srv.world     1/1     Running   0          2m54s
kube-system   kube-proxy-mfwjz                          1/1     Running   0          2m45s
kube-system   kube-scheduler-dlp.srv.world              1/1     Running   0          2m57s
関連コンテンツ