Ceph Pacific : CephFS + NFS-Ganesha2022/03/31 |
|
NFS-Ganesha をインストールして、Ceph ファイルシステムを NFS マウントできるようにします。
|
|
| [1] | CephFS 設定ノードで NFS-Ganesha をインストールして設定します。 |
|
[root@node01 ~]#
dnf -y install centos-release-nfs-ganesha4
[root@node01 ~]#
sed -i -e "s/enabled=1/enabled=0/g" /etc/yum.repos.d/CentOS-NFS-Ganesha-4.repo
[root@node01 ~]#
[root@node01 ~]# dnf --enablerepo=centos-nfs-ganesha-4 -y install nfs-ganesha-ceph mv /etc/ganesha/ganesha.conf /etc/ganesha/ganesha.conf.org
[root@node01 ~]#
vi /etc/ganesha/ganesha.conf # 新規作成
NFS_CORE_PARAM {
# NLM は無効にする
Enable_NLM = false;
# CephFS では RQUOTA は未サポートのため無効にする
Enable_RQUOTA = false;
# NFS プロトコル
Protocols = 4;
}
EXPORT_DEFAULTS {
# デフォルトのアクセスモード
Access_Type = RW;
}
EXPORT {
# 任意の一意な ID
Export_Id = 101;
# CephFS のマウントパス
Path = "/";
FSAL {
name = CEPH;
# このノードのホスト名 または IP アドレス
hostname="10.0.0.51";
}
# root Squash 設定
Squash="No_root_squash";
# NFSv4 Pseudo 用の疑似ファイルシステムのパス
Pseudo="/vfs_ceph";
# 許可するセキュリティオプション
SecType = "sys";
}
LOG {
# デフォルトのログレベル
Default_Log_Level = WARN;
}
systemctl enable --now nfs-ganesha
|
| [2] | SELinux を有効にしている場合は、ポリシーの変更が必要です。 |
|
[root@dlp ~]#
vi nfs-ganesha.te # 以下の内容で新規作成
module nfs-ganesha 1.0;
require {
type cyphesis_port_t;
type ganesha_t;
class tcp_socket name_connect;
}
#============= ganesha_t ==============
allow ganesha_t cyphesis_port_t:tcp_socket name_connect;
checkmodule -m -M -o nfs-ganesha.mod nfs-ganesha.te [root@dlp ~]# semodule_package --outfile nfs-ganesha.pp --module nfs-ganesha.mod [root@dlp ~]# semodule -i nfs-ganesha.pp |
| [3] | Firewalld を有効にしている場合は、NFS サービスの許可が必要です。 |
|
[root@node01 ~]# firewall-cmd --add-service=nfs success [root@node01 ~]# firewall-cmd --runtime-to-permanent success |
| [4] | 任意のクライアントコンピューターで NFS マウントして確認します。 |
|
[root@client ~]#
dnf -y install nfs-utils # サーバー側の ganesha.conf で [Pseudo=***] に設定したパスを指定 [root@client ~]# mount -t nfs4 node01.srv.world:/vfs_ceph /mnt [root@client ~]# df -hT Filesystem Type Size Used Avail Use% Mounted on devtmpfs devtmpfs 1.8G 0 1.8G 0% /dev tmpfs tmpfs 1.9G 0 1.9G 0% /dev/shm tmpfs tmpfs 745M 8.6M 737M 2% /run /dev/mapper/cs-root xfs 26G 2.1G 24G 8% / /dev/vda1 xfs 1014M 370M 645M 37% /boot tmpfs tmpfs 373M 0 373M 0% /run/user/0 node01.srv.world:/vfs_ceph nfs4 76G 0 76G 0% /mnt |
| Sponsored Link |
|
|