《Ceph官方文档翻译.doc》由会员分享,可在线阅读,更多相关《Ceph官方文档翻译.doc(22页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、如有侵权,请联系网站删除,仅供学习与交流Ceph官方文档翻译【精品文档】第 20 页Ceph官方文档翻译石家庄众毅信息技术有限公司2017年06月目录在此处插入索引和目录准备New in version 0.60.谢谢您尝试 Ceph !我们建议安装一个 ceph-deploy 管理节点和一个三节点的Ceph 存储集群来研究 Ceph 的基本特性。这篇预检会帮你准备一个 ceph-deploy 管理节点、以及三个Ceph 节点(或虚拟机),以此构成 Ceph 存储集群。在进行下一步之前,请参见操作系统推荐以确认你安装了合适的 Linux 发行版。如果你在整个生产集群中只部署了单一 Linux
2、发行版的同一版本,那么在排查生产环境中遇到的问题时就会容易一点。在下面的描述中节点代表一台机器。在没有DNS的情况下,需要手动修改各个主机的hosts文件和主机名安装 CEPH 部署工具把 Ceph 仓库添加到 ceph-deploy 管理节点,然后安装 ceph-deploy 。高级包管理工具(APT)在 Debian 和 Ubuntu 发行版上,执行下列步骤:1. 添加 release key :wget -q -O- | sudo apt-key add -2. 添加Ceph软件包源,用Ceph稳定版(如 cuttlefish 、 dumpling 、 emperor 、 firefly
3、 等等)替换掉 ceph-stable-release 。例如:echo deb $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.list3. 更新你的仓库,并安装 ceph-deploy :sudo apt-get update & sudo apt-get install ceph-deployNote你也可以从欧洲镜像 下载软件包,只需把 替换成 即可。红帽包管理工具(RPM)在 Red Hat (rhel6、rhel7)、CentOS (el6、el7)和 Fedora 19-20 (f19 - f20)
4、上执行下列步骤:1. (只需要在管理节点)在 RHEL7 上,用 subscription-manager 注册你的目标机器,确认你的订阅, 并启用安装依赖包的“Extras”软件仓库。例如 :如果使用ceph-deploy部署,则不需要此步骤sudo subscription-manager repos -enable=rhel-7-server-extras-rpms2. 在 RHEL6 上,安装并启用 Extra Packages for Enterprise Linux (EPEL) 软件仓库。 请查阅 EPEL wiki 获取更多信息。3. (只需要在管理节点)在 CentOS 上,
5、可以执行下列命令:sudo yum install -y yum-utils sudo yum-config-manager -add-repo https:/dl.fedoraproject.org/pub/epel/7/x86_64/ sudo yum install -nogpgcheck -y epel-release sudo rpm -import /etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7 sudo rm /etc/yum.repos.d/dl.fedoraproject.org*4. (只需要在管理节点)把软件包源加入软件仓库。用文本编辑器创建一个
6、YUM (Yellowdog Updater, Modified) 库文件,其路径为 /etc/yum.repos.d/ceph.repo 。例如:sudo vim /etc/yum.repos.d/ceph.repo把如下内容粘帖进去,用 Ceph 的最新主稳定版名字替换 ceph-stable-release (如 firefly ),用你的Linux发行版名字替换 distro (如 el6 为 CentOS 6 、 el7 为 CentOS 7 、 rhel6 为 Red Hat 6.5 、 rhel7 为 Red Hat 7 、 fc19 是 Fedora 19 、 fc20 是 F
7、edora 20 )。最后保存到 /etc/yum.repos.d/ceph.repo 文件中。ceph-noarchname=Ceph noarch packagesbaseurl=enabled=1gpgcheck=1type=rpm-mdgpgkey=5. 更新软件库并安装 ceph-deploy :sudo yum update & sudo yum install ceph-deployNote你也可以从欧洲镜像 下载软件包,只需把 替换成 即可。CEPH 节点安装你的管理节点必须能够通过 SSH 无密码地访问各 Ceph 节点。如果 ceph-deploy 以某个普通用户登录,那么
8、这个用户必须有无密码使用 sudo 的权限。安装 NTP我们建议在所有 Ceph 节点上安装 NTP 服务(特别是 Ceph Monitor 节点),以免因时钟漂移导致故障,详情见时钟。在 CentOS / RHEL 上,执行:sudo yum install ntp ntpdate ntp-doc在 Debian / Ubuntu 上,执行:sudo apt-get install ntp确保在各 Ceph 节点上启动了 NTP 服务,并且要使用同一个 NTP 服务器,详情见 NTP 。安装 SSH 服务器在所有 Ceph 节点上执行如下步骤:1. 在各 Ceph 节点安装 SSH 服务器(
9、如果还没有):sudo apt-get install openssh-server或者sudo yum install openssh-server2. 确保所有 Ceph 节点上的 SSH 服务器都在运行。创建部署 CEPH 的用户ceph-deploy 工具必须以普通用户登录 Ceph 节点,且此用户拥有无密码使用 sudo 的权限,因为它需要在安装软件及配置文件的过程中,不必输入密码。较新版的 ceph-deploy 支持用 -username 选项提供可无密码使用 sudo 的用户名(包括 root ,虽然不建议这样做)。使用 ceph-deploy -username userna
10、me 命令时,指定的用户必须能够通过无密码 SSH 连接到 Ceph 节点,因为 ceph-deploy 中途不会提示输入密码。我们建议在集群内的所有 Ceph 节点上给 ceph-deploy 创建一个特定的用户,但不要用 “ceph” 这个名字。全集群统一的用户名可简化操作(非必需),然而你应该避免使用知名用户名,因为黑客们会用它做暴力破解(如 root 、 admin 、 productname )。后续步骤描述了如何创建无 sudo 密码的用户,你要用自己取的名字替换 username 。Note从 Infernalis 版起,用户名 “ceph” 保留给了 Ceph 守护进程。如果
11、Ceph 节点上已经有了 “ceph” 用户,升级前必须先删掉这个用户。1. 在各 Ceph 节点创建新用户。ssh userceph-serversudo useradd -d /home/username -m usernamesudo passwd username2. 确保各 Ceph 节点上新创建的用户都有 sudo 权限。echo username ALL = (root) NOPASSWD:ALL | sudo tee etc/sudoers.d/usernamesudo chmod 0440 /etc/sudoers.d/username允许无密码 SSH 登录正因为 ceph
12、-deploy 不支持输入密码,你必须在管理节点上生成 SSH 密钥并把其公钥分发到各 Ceph 节点。 ceph-deploy 会尝试给初始 monitors 生成 SSH 密钥对。1. 生成 SSH 密钥对,但不要用 sudo 或 root 用户。提示 “Enter passphrase” 时,直接回车,口令即为空:ssh-keygenGenerating public/private key pair.Enter file in which to save the key (/ceph-admin/.ssh/id_rsa):Enter passphrase (empty for no p
13、assphrase):Enter same passphrase again:Your identification has been saved in /ceph-admin/.ssh/id_rsa.Your public key has been saved in /ceph-admin/.ssh/id_rsa.pub.2. 把公钥拷贝到各 Ceph 节点,把下列命令中的 username 替换成前面创建部署 Ceph 的用户里的用户名。ssh-copy-id usernamenode1ssh-copy-id usernamenode2ssh-copy-id usernamenode33.
14、 (推荐做法)修改 ceph-deploy 管理节点上的 /.ssh/config 文件,这样 ceph-deploy 就能用你所建的用户名登录 Ceph 节点了,而无需每次执行 ceph-deploy 都要指定 -username username 。这样做同时SSH也简化了 ssh 和 scp 的用法。把 username 替换成你创建的用户名。需要使用chmod 600 /.ssh/config 修改权限,否则会报错Host node1 Hostname node1 User usernameHost node2 Hostname node2 User usernameHost node
15、3 Hostname node3 User username启动时联网Ceph 的各 OSD 进程通过网络互联并向 Monitors 上报自己的状态。如果网络默认为 off ,那么 Ceph 集群在启动时就不能上线,直到你打开网络。某些发行版(如 CentOS )默认关闭网络接口。所以需要确保网卡在系统启动时都能启动,这样 Ceph 守护进程才能通过网络通信。例如,在 Red Hat 和 CentOS 上,需进入 /etc/sysconfig/network-scripts 目录并确保 ifcfg-iface 文件中的 ONBOOT 设置成了 yes 。确保联通性用 ping 短主机名( ho
16、stname -s )的方式确认网络联通性。解决掉可能存在的主机名解析问题。Note主机名应该解析为网络 IP 地址,而非回环接口 IP 地址(即主机名应该解析成非 127.0.0.1 的IP地址)。如果你的管理节点同时也是一个 Ceph 节点,也要确认它能正确解析自己的主机名和 IP 地址(即非回环 IP 地址)。开放所需端口Ceph Monitors 之间默认使用 6789 端口通信, OSD 之间默认用 6800:7300 这个范围内的端口通信。详情见网络配置参考。 Ceph OSD 能利用多个网络连接进行与客户端、monitors、其他 OSD 间的复制和心跳的通信。某些发行版(如 R
17、HEL )的默认防火墙配置非常严格,你可能需要调整防火墙,允许相应的入站请求,这样客户端才能与 Ceph 节点上的守护进程通信。对于 RHEL 7 上的 firewalld ,要对公共域开放 Ceph Monitors 使用的 6789 端口和 OSD 使用的 6800:7300 端口范围,并且要配置为永久规则,这样重启后规则仍有效。例如:sudo firewall-cmd -zone=public -add-port=6789/tcp -permanent若使用 iptables ,要开放 Ceph Monitors 使用的 6789 端口和 OSD 使用的 6800:7300 端口范围,命
18、令如下:sudo iptables -A INPUT -i iface -p tcp -s ip-address/netmask -dport 6789 -j ACCEPT在每个节点上配置好 iptables 之后要一定要保存,这样重启之后才依然有效。例如:/sbin/service iptables save终端( TTY )在 CentOS 和 RHEL 上执行 ceph-deploy 命令时可能会报错。如果你的 Ceph 节点默认设置了 requiretty ,执行 sudo visudo 禁用它,并找到 Defaults requiretty 选项,把它改为 Defaults:ceph
19、 !requiretty 或者直接注释掉,这样 ceph-deploy 就可以用之前创建的用户(创建部署 Ceph 的用户 )连接了。sudo visudo 修改确保配置如下Defaults !visiblepwDefaults !requirettyusername ALL=(ALL) NOPASSWD: ALLNote编辑配置文件 /etc/sudoers 时,必须用 sudo visudo 而不是文本编辑器。SELINUX在 CentOS 和 RHEL 上, SELinux 默认为 Enforcing 开启状态。为简化安装,我们建议把 SELinux 设置为 Permissive 或者完
20、全禁用,也就是在加固系统配置前先确保集群的安装、配置没问题。用下列命令把 SELinux 设置为 Permissive :sudo setenforce 0要使 SELinux 配置永久生效(如果它的确是问题根源),需修改其配置文件 /etc/selinux/config 。YUM 优先级/首选项插件确保你的包管理器安装了优先级/首选项包且已启用。在 CentOS 上你也许得安装 EPEL ,在 RHEL 上你也许得启用可选软件库。sudo yum install yum-plugin-priorities比如在 RHEL 7 服务器上,可用下列命令安装 yum-plugin-prioriti
21、es并启用 rhel-7-server-optional-rpms 软件库:sudo yum install yum-plugin-priorities -enablerepo=rhel-7-server-optional-rpms总结快速入门的预检部分到此结束,请继续存储集群快速入门。存储集群快速入门如果你还没完成预检,请先做完。本篇快速入门用 ceph-deploy 从管理节点建立一个 Ceph 存储集群,该集群包含三个节点,以此探索 Ceph 的功能。第一次练习时,我们创建一个 Ceph 存储集群,它有一个 Monitor 和两个 OSD 守护进程。一旦集群达到 active + cle
22、an 状态,再扩展它:增加第三个 OSD 、增加元数据服务器和两个 Ceph Monitors。为获得最佳体验,先在管理节点上创建一个目录,用于保存 ceph-deploy 生成的配置文件和密钥对。mkdir my-clustercd my-clusterceph-deploy 会把文件输出到当前目录,所以请确保在此目录下执行 ceph-deploy 。Important如果你是用另一普通用户登录的,不要用 sudo 或在 root 身份运行 ceph-deploy ,因为它不会在远程主机上调用所需的 sudo 命令。禁用 requiretty在某些发行版(如 CentOS )上,执行 cep
23、h-deploy 命令时,如果你的 Ceph 节点默认设置了 requiretty 那就会遇到报错。可以这样禁用此功能:执行 sudo visudo ,找到 Defaults requiretty 选项,把它改为 Defaults:ceph !requiretty ,这样 ceph-deploy 就能用 ceph 用户登录并使用 sudo 了。创建集群如果在某些地方碰到麻烦,想从头再来,可以用下列命令清除配置:ceph-deploy purgedata ceph-node ceph-nodeceph-deploy forgetkeys用下列命令可以连 Ceph 安装包一起清除:ceph-dep
24、loy purge ceph-node ceph-node如果执行了 purge ,你必须重新安装 Ceph 。在管理节点上,进入刚创建的放置配置文件的目录,用 ceph-deploy 执行如下步骤。1. 创建集群。ceph-deploy new initial-monitor-node(s)例如:ceph-deploy new node1在当前目录下用 ls 和 cat 检查 ceph-deploy 的输出,应该有一个 Ceph 配置文件、一个 monitor 密钥环和一个日志文件。详情见 ceph-deploy new -h 。2. 把 Ceph 配置文件里的默认副本数从 3 改成 2 ,
25、这样只有两个 OSD 也可以达到 active + clean 状态。把下面这行加入 global 段:osd pool default size = 23. 如果你有多个网卡,可以把 public network 写入 Ceph 配置文件的 global 段下。详情见网络配置参考。public network = ip-address/netmask4. 安装 Ceph 。ceph-deploy install ceph-node ceph-node .例如:ceph-deploy install admin-node node1 node2 node3ceph-deploy 将在各节点安装
26、 Ceph 。 注:如果你执行过 ceph-deploy purge ,你必须重新执行这一步来安装 Ceph 。5. 配置初始 monitor(s)、并收集所有密钥:ceph-deploy mon create-initial完成上述操作后,当前目录里应该会出现这些密钥环:o cluster-name.client.admin.keyringo cluster-name.bootstrap-osd.keyringo cluster-name.bootstrap-mds.keyringo cluster-name.bootstrap-rgw.keyringNote只有在安装 Hammer 或更高
27、版时才会创建 bootstrap-rgw 密钥环。Note如果此步失败并输出类似于如下信息 “Unable to find /etc/ceph/ceph.client.admin.keyring”,请确认 ceph.conf 中为 monitor 指定的 IP 是 Public IP,而不是 Private IP。1. 添加两个 OSD 。为了快速地安装,这篇快速入门把目录而非整个硬盘用于 OSD 守护进程。如何为 OSD 及其日志使用独立硬盘或分区,请参考 ceph-deploy osd 。登录到 Ceph 节点、并给 OSD 守护进程创建一个目录。ssh node2sudo mkdir /
28、var/local/osd0exitssh node3sudo mkdir /var/local/osd1exit然后,从管理节点执行 ceph-deploy 来准备 OSD 。ceph-deploy osd prepare ceph-node:/path/to/directory例如:ceph-deploy osd prepare node2:/var/local/osd0 node3:/var/local/osd1最后,激活 OSD 。ceph-deploy osd activate ceph-node:/path/to/directory例如:ceph-deploy osd activa
29、te node2:/var/local/osd0 node3:/var/local/osd12. 用 ceph-deploy 把配置文件和 admin 密钥拷贝到管理节点和 Ceph 节点,这样你每次执行 Ceph 命令行时就无需指定 monitor 地址和 ceph.client.admin.keyring 了。ceph-deploy admin admin-node ceph-node例如:ceph-deploy admin admin-node node1 node2 node3ceph-deploy 和本地管理主机( admin-node )通信时,必须通过主机名可达。必要时可修改 /
30、etc/hosts ,加入管理主机的名字。3. 确保你对 ceph.client.admin.keyring 有正确的操作权限。sudo chmod +r /etc/ceph/ceph.client.admin.keyring4. 检查集群的健康状况。ceph health等 peering 完成后,集群应该达到 active + clean 状态。操作集群用 ceph-deploy 部署完成后它会自动启动集群。要在 Debian/Ubuntu 发行版下操作集群守护进程,参见用 Upstart 运行 Ceph ;要在 CentOS 、 Red Hat 、 Fedora 和 SLES 下操作集群
31、守护进程,参见用 sysvinit 运行 Ceph 。关于 peering 和集群健康状况请参见监控集群;关于 OSD 守护进程和归置组( placement group )健康状况参见监控 OSD 和归置组;关于用户管理请参见用户管理。Ceph 集群部署完成后,你可以尝试一下管理功能、 rados 对象存储命令,之后可以继续快速入门手册,了解 Ceph 块设备、 Ceph 文件系统和 Ceph 对象网关。扩展集群(扩容)一个基本的集群启动并开始运行后,下一步就是扩展集群。在 node1 上添加一个 OSD 守护进程和一个元数据服务器。然后分别在 node2 和 node3 上添加 Ceph
32、Monitor ,以形成 Monitors 的法定人数。添加 OSD你运行的这个三节点集群只是用于演示的,把 OSD 添加到 monitor 节点就行。ssh node1sudo mkdir /var/local/osd2exit然后,从 ceph-deploy 节点准备 OSD 。ceph-deploy osd prepare ceph-node:/path/to/directory例如:ceph-deploy osd prepare node1:/var/local/osd2最后,激活 OSD 。ceph-deploy osd activate ceph-node:/path/to/dir
33、ectory例如:ceph-deploy osd activate node1:/var/local/osd2一旦你新加了 OSD , Ceph 集群就开始重均衡,把归置组迁移到新 OSD 。可以用下面的 ceph 命令观察此过程:ceph -w你应该能看到归置组状态从 active + clean 变为 active ,还有一些降级的对象;迁移完成后又会回到 active + clean 状态( Control-C 退出)。添加元数据服务器至少需要一个元数据服务器才能使用 CephFS ,执行下列命令创建元数据服务器:ceph-deploy mds create ceph-node例如:ce
34、ph-deploy mds create node1Note当前生产环境下的 Ceph 只能运行一个元数据服务器。你可以配置多个,但现在我们还不会为多个元数据服务器的集群提供商业支持。添加 RGW 例程要使用 Ceph 的 Ceph 对象网关组件,必须部署 RGW 例程。用下列方法创建新 RGW 例程:ceph-deploy rgw create gateway-node例如:ceph-deploy rgw create node1Note这个功能是从 Hammer 版和 ceph-deploy v1.5.23 才开始有的。RGW 例程默认会监听 7480 端口,可以更改该节点 ceph.co
35、nf 内与 RGW 相关的配置,如下:clientrgw frontends = civetweb port=80用的是 IPv6 地址的话:clientrgw frontends = civetweb port=:80添加 MONITORSCeph 存储集群需要至少一个 Monitor 才能运行。为达到高可用,典型的 Ceph 存储集群会运行多个 Monitors,这样在单个 Monitor 失败时不会影响 Ceph 存储集群的可用性。Ceph 使用 PASOX 算法,此算法要求有多半 monitors(即 1 、 2:3 、 3:4 、 3:5 、 4:6 等 )形成法定人数。新增两个监视
36、器到 Ceph 集群。ceph-deploy mon add ceph-node例如:ceph-deploy mon add node2 node3新增 Monitor 后,Ceph 会自动开始同步并形成法定人数。你可以用下面的命令检查法定人数状态:ceph quorum_status -format json-prettyTip当你的 Ceph 集群运行着多个 monitor 时,各 monitor 主机上都应该配置 NTP ,而且要确保这些 monitor 位于 NTP 服务的同一级。存入/检出对象数据要把对象存入 Ceph 存储集群,客户端必须做到:1. 指定对象名2. 指定存储池Cep
37、h 客户端检出最新集群运行图,用 CRUSH 算法计算出如何把对象映射到归置组,然后动态地计算如何把归置组分配到 OSD 。要定位对象,只需要对象名和存储池名字即可,例如:ceph osd map poolname object-name练习:定位某个对象作为练习,我们先创建一个对象,用 rados put 命令加上对象名、一个有数据的测试文件路径、并指定存储池。例如:echo Test-data testfile.txtrados put object-name file-path -pool=datarados put test-object-1 testfile.txt -pool=da
38、ta为确认 Ceph 存储集群存储了此对象,可执行:rados -p data ls现在,定位对象:ceph osd map pool-name object-nameceph osd map data test-object-1Ceph 应该会输出对象的位置,例如:osdmap e537 pool data (0) object test-object-1 - pg 0.d1743484 (0.4) - up 1,0 acting 1,0用rados rm 命令可删除此测试对象,例如:rados rm test-object-1 -pool=data随着集群的运行,对象位置可能会动态改变。
39、Ceph 有动态均衡机制,无需手动干预即可完成。块设备快速入门要实践本手册,你必须先完成存储集群快速入门 ,并确保 Ceph 存储集群处于 active + clean 状态,这样才能使用 Ceph 块设备。NoteCeph 块设备也叫 RBD 或 RADOS 块设备。你可以在虚拟机上运行 ceph-client 节点,但是不能在与 Ceph 存储集群(除非它们也用 VM )相同的物理节点上执行下列步骤。详情见 FAQ 。安装 CEPH1. 确认你使用了合适的内核版本,详情见操作系统推荐。lsb_release -auname -r2. 在管理节点上,通过 ceph-deploy 把 Ceph
40、 安装到 ceph-client 节点。ceph-deploy install ceph-client3. 在管理节点上,用 ceph-deploy 把 Ceph 配置文件和 ceph.client.admin.keyring 拷贝到 ceph-client 。ceph-deploy admin ceph-clientceph-deploy 工具会把密钥环复制到 /etc/ceph 目录,要确保此密钥环文件有读权限(如 sudo chmod +r /etc/ceph/ceph.client.admin.keyring )。配置块设备1. 在 ceph-client 节点上创建一个块设备 ima
41、ge 。rbd create foo -size 4096 -m mon-IP -k /path/to/ceph.client.admin.keyring2. 在 ceph-client 节点上,把 image 映射为块设备。sudo rbd map foo -name client.admin -m mon-IP -k /path/to/ceph.client.admin.keyring3. 在 ceph-client 节点上,创建文件系统后就可以使用块设备了。sudo mkfs.ext4 -m0 /dev/rbd/rbd/foo此命令可能耗时较长。4. 在 ceph-client 节点上挂
42、载此文件系统。sudo mkdir /mnt/ceph-block-devicesudo mount /dev/rbd/rbd/foo /mnt/ceph-block-devicecd /mnt/ceph-block-device详情见块设备 。CEPH 文件系统快速入门开始实践 Ceph 文件系统入门手册前,必须先完成存储集群快速入门。在管理节点上完成此入门。准备工作1. 确认你使用了合适的内核版本,详情见操作系统推荐。lsb_release -auname -r2. 在管理节点上,通过 ceph-deploy 把 Ceph 安装到 ceph-client 节点上。ceph-deploy i
43、nstall ceph-client3. 确保 Ceph 存储集群在运行,且处于 active + clean 状态。同时,确保至少有一个 Ceph 元数据服务器在运行。ceph -s -m monitor-ip-address -k path/to/ceph.client.admin.keyring创建文件系统虽然已创建了元数据服务器(存储集群快速入门),但如果你没有创建存储池和文件系统,它是不会变为活动状态的。参见 创建 Ceph 文件系统 。ceph osd pool create cephfs_data ceph osd pool create cephfs_metadata ceph
44、 fs new cephfs_metadata cephfs_data创建密钥文件Ceph 存储集群默认启用认证,你应该有个包含密钥的配置文件(但不是密钥环本身)。用下述方法获取某一用户的密钥:1. 在密钥环文件中找到与某用户对应的密钥,例如:cat ceph.client.admin.keyring2. 找到用于挂载 Ceph 文件系统的用户,复制其密钥。大概看起来如下所示:client.admin key = AQCj2YpRiAe6CxAA7/ETt7Hcl9IyxyYciVs47w=3. 打开文本编辑器。4. 把密钥粘帖进去,大概像这样:AQCj2YpRiAe6CxAA7/ETt7Hc
45、l9IyxyYciVs47w=5. 保存文件,并把其用户名 name 作为一个属性(如 admin.secret )。6. 确保此文件对用户有合适的权限,但对其他用户不可见。内核驱动把 Ceph FS 挂载为内核驱动。sudo mkdir /mnt/mycephfssudo mount -t ceph ip-address-of-monitor:6789:/ /mnt/mycephfsCeph 存储集群默认需要认证,所以挂载时需要指定用户名 name 和创建密钥文件一节中创建的密钥文件 secretfile ,例如:sudo mount -t ceph 192.168.0.1:6789:/ /mnt/mycephfs -o name=admin,secretfile=admin.secretNote从管理节点而非服务器节点挂载 Ceph FS 文件系统,详情见 FAQ 。用户空间文件系统( FUSE )把 Ceph FS 挂载为用户空间文件系统( FUSE )。sudo mkdir /mycephfssudo ceph-fuse -m ip-address-of-monitor:6789
限制150内