OpenStack Newton : Computeノードを追加する2016/10/22 |
Computeノードを追加します。Computeノードを追加することにより、より多くのインスタンスを扱うことができます。
|
|
[1] |
新たに追加する Computeノードに
こちらを参考にして KVMハイパーバイザーをインストールしておきます。
リンク先 [2] のブリッジの設定は不要です。
|
[2] | Nova-Compute, Nova-Network をインストールします。 レガシーネットワーク ( nova-network ) を利用しない場合は「openstack-nova-network」は不要です。 |
[root@node01 ~]# yum --enablerepo=centos-openstack-newton,epel -y install openstack-nova-compute openstack-nova-api openstack-nova-network
|
[3] | Nova の基本設定です。 |
[root@node01 ~]# mv /etc/nova/nova.conf /etc/nova/nova.conf.org
[root@node01 ~]#
vi /etc/nova/nova.conf # 新規作成 [DEFAULT] # 自ホストのIP my_ip = 10.0.0.51 state_path = /var/lib/nova enabled_apis = osapi_compute,metadata osapi_compute_listen = 0.0.0.0 osapi_compute_listen_port = 8774 rootwrap_config = /etc/nova/rootwrap.conf api_paste_config = /etc/nova/api-paste.ini auth_strategy = keystone log_dir = /var/log/nova rpc_backend = rabbit # VNC を有効にする [vnc] enabled = True vncserver_listen = 0.0.0.0 vncserver_proxyclient_address = $my_ip novncproxy_base_url = http://10.0.0.30:6080/vnc_auto.html # Glance サーバーを指定 [glance] api_servers = http://10.0.0.30:9292
[oslo_concurrency]
lock_path = /var/lib/nova/tmp # RabbitMQ サーバー接続情報 [oslo_messaging_rabbit] rabbit_host = 10.0.0.30 rabbit_port = 5672 rabbit_userid = openstack rabbit_password = password # Keystone サーバー接続情報 [keystone_authtoken] auth_uri = http://10.0.0.30:5000 auth_url = http://10.0.0.30:35357 memcached_servers = 10.0.0.30:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = nova password = servicepassword chmod 640 /etc/nova/nova.conf [root@node01 ~]# chgrp nova /etc/nova/nova.conf |
[4] | Nova ネットワーク ( nova-network ) を利用する場合のネットワーク設定です。 Neutron Service を利用する場合は、こちらを参照して設定してください。 なお、レガシーネットワーク ( nova-network ) は非推奨となっています。 |
[root@node01 ~]#
vi /etc/nova/nova.conf # [DEFAULT] セクション内の適当な場所へ追記 use_neutron = False libvirt_vif_driver = nova.virt.libvirt.vif.LibvirtGenericVIFDriver linuxnet_interface_driver = nova.network.linux_net.LinuxBridgeInterfaceDriver firewall_driver = nova.virt.libvirt.firewall.IptablesFirewallDriver network_manager = nova.network.manager.FlatDHCPManager network_size = 254 allow_same_net_traffic = False multi_host = True send_arp_for_ha = True share_dhcp_address = True force_dhcp_release = True # パブリック用のインターフェース名 public_interface = eth0 # 適当なブリッジインターフェイス名 flat_network_bridge = br100 # フラットDHCPブリッジに使用するインターフェース名 flat_interface = dummy0 # フラットDHCPブリッジに指定したダミーインターフェースを追加して起動
[root@node01 ~]#
[root@node01 ~]# cat > /etc/sysconfig/network-scripts/ifcfg-dummy0 <<EOF
DEVICE=dummy0 BOOTPROTO=none ONBOOT=yes TYPE=Ethernet NM_CONTROLLED=no EOF echo "alias dummy0 dummy" > /etc/modprobe.d/dummy.conf [root@node01 ~]# ifup dummy0 |
[5] | SELinux を有効にしている場合は、ポリシーの変更が必要です。 |
[root@node01 ~]#
vi nova_pol.te # 以下の内容で新規作成 module nova_pol 1.0; require { type nova_t; type nova_log_t; type sysctl_net_t; type netutils_exec_t; class file { read getattr create open execute }; class dir { write search add_name }; class capability { kill sys_ptrace }; class capability2 block_suspend; } #============= nova_t ============== allow nova_t netutils_exec_t:file execute; allow nova_t self:capability kill; allow nova_t sysctl_net_t:dir search; allow nova_t sysctl_net_t:file { read getattr open }; allow nova_t self:capability sys_ptrace; allow nova_t self:capability2 block_suspend; checkmodule -m -M -o nova_pol.mod nova_pol.te checkmodule: loading policy configuration from nova_pol.te checkmodule: policy configuration loaded checkmodule: writing binary representation (version 17) to nova_pol.mod # 中間ファイルからモジュール生成 [root@node01 ~]# semodule_package --outfile nova_pol.pp --module nova_pol.mod # モジュールインストール [root@node01 ~]# semodule -i nova_pol.pp |
[6] | Firewalld を有効にしている場合は、サービスポートの許可が必要です。 |
[root@node01 ~]# firewall-cmd --add-port={6080/tcp,8774/tcp,8775/tcp} --permanent success [root@node01 ~]# firewall-cmd --reload success |
[7] | Nova サービス起動を起動します。 レガシーネットワーク ( nova-network ) を利用しない場合は「network」を除外してください。 |
[root@node01 ~]# for service in metadata-api compute network; do
systemctl start openstack-nova-$service systemctl enable openstack-nova-$service done |
[8] | 制御ノード上でサービスの稼働状況を確認します。以下のように計算ノード分が追加されていれば OK です。 あとは、制御ノードのスケジューラが設定に従って、適切な計算ノード上でインスタンスを起動します。 |
[root@dlp ~(keystone)]# nova service-list +----+------------------+------------------+----------+---------+-------+----------------------------+-----------------+ | Id | Binary | Host | Zone | Status | State | Updated_at | Disabled Reason | +----+------------------+------------------+----------+---------+-------+----------------------------+-----------------+ | 7 | nova-cert | dlp.srv.world | internal | enabled | up | 2016-10-22T16:53:04.000000 | - | | 8 | nova-consoleauth | dlp.srv.world | internal | enabled | up | 2016-10-22T16:53:04.000000 | - | | 9 | nova-conductor | dlp.srv.world | internal | enabled | up | 2016-10-22T16:53:02.000000 | - | | 13 | nova-scheduler | dlp.srv.world | internal | enabled | up | 2016-10-22T16:53:04.000000 | - | | 14 | nova-compute | dlp.srv.world | nova | enabled | up | 2016-10-22T16:53:04.000000 | - | | 15 | nova-network | dlp.srv.world | internal | enabled | up | 2016-10-22T16:53:04.000000 | - | | 16 | nova-compute | node01.srv.world | nova | enabled | up | 2016-10-22T16:53:04.000000 | - | | 17 | nova-network | node01.srv.world | internal | enabled | up | 2016-10-22T16:53:06.000000 | - | +----+------------------+------------------+----------+---------+-------+----------------------------+-----------------+ |
Sponsored Link |
|