Ceph Quincy : CephFS + NFS-Ganesha2022/06/14 |
NFS-Ganesha をインストールして、Ceph ファイルシステムを NFS マウントできるようにします。
|
|
[1] | CephFS 設定ノードで NFS-Ganesha をインストールして設定します。 |
[root@node01 ~]#
dnf -y install centos-release-nfs-ganesha4
[root@node01 ~]#
sed -i -e "s/enabled=1/enabled=0/g" /etc/yum.repos.d/CentOS-NFS-Ganesha-4.repo
[root@node01 ~]#
[root@node01 ~]# dnf --enablerepo=centos-nfs-ganesha-4 -y install nfs-ganesha-ceph mv /etc/ganesha/ganesha.conf /etc/ganesha/ganesha.conf.org
[root@node01 ~]#
vi /etc/ganesha/ganesha.conf # 新規作成 NFS_CORE_PARAM { # NLM は無効にする Enable_NLM = false; # CephFS では RQUOTA は未サポートのため無効にする Enable_RQUOTA = false; # NFS プロトコル Protocols = 4; } EXPORT_DEFAULTS { # デフォルトのアクセスモード Access_Type = RW; } EXPORT { # 任意の一意な ID Export_Id = 101; # CephFS のマウントパス Path = "/"; FSAL { name = CEPH; # このノードのホスト名 または IP アドレス hostname="10.0.0.51"; } # root Squash 設定 Squash="No_root_squash"; # NFSv4 Pseudo 用の疑似ファイルシステムのパス Pseudo="/vfs_ceph"; # 許可するセキュリティオプション SecType = "sys"; } LOG { # デフォルトのログレベル Default_Log_Level = WARN; } systemctl enable --now nfs-ganesha.service
|
[2] | SELinux を有効にしている場合は、ポリシーの変更が必要です。 |
[root@node01 ~]#
vi nfs-ganesha.te # 以下の内容で新規作成 module nfs-ganesha 1.0; require { type cyphesis_port_t; type ganesha_t; class tcp_socket name_connect; } #============= ganesha_t ============== allow ganesha_t cyphesis_port_t:tcp_socket name_connect; checkmodule -m -M -o nfs-ganesha.mod nfs-ganesha.te [root@node01 ~]# semodule_package --outfile nfs-ganesha.pp --module nfs-ganesha.mod [root@node01 ~]# semodule -i nfs-ganesha.pp |
[3] | Firewalld を有効にしている場合は、NFS サービスの許可が必要です。 |
[root@node01 ~]# firewall-cmd --add-service=nfs success [root@node01 ~]# firewall-cmd --runtime-to-permanent success |
[4] | 任意のクライアントコンピューターで NFS マウントして確認します。 |
[root@client ~]#
dnf -y install nfs-utils # サーバー側の ganesha.conf で [Pseudo=***] に設定したパスを指定 [root@client ~]# mount -t nfs4 node01.srv.world:/vfs_ceph /mnt [root@client ~]# df -hT Filesystem Type Size Used Avail Use% Mounted on devtmpfs devtmpfs 1.8G 0 1.8G 0% /dev tmpfs tmpfs 1.9G 0 1.9G 0% /dev/shm tmpfs tmpfs 744M 8.6M 736M 2% /run /dev/mapper/cs-root xfs 26G 2.2G 24G 9% / /dev/vda1 xfs 1014M 370M 645M 37% /boot tmpfs tmpfs 372M 0 372M 0% /run/user/0 node01.srv.world:/vfs_ceph nfs4 152G 0 152G 0% /mnt |
Sponsored Link |
|