如何构建Ceph-创新互联

小编给大家分享一下如何构建Ceph,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!

成都创新互联自2013年创立以来,先为磐石等服务建站,磐石等地企业,进行企业商务咨询服务。为磐石企业网站制作PC+手机+微官网三网同步一站式服务解决您的所有建站问题。


基本简介

Ceph是一种为优秀的性能、可靠性和可扩展性而设计的统一的、分布式文件系统。
由来

其命名和UCSC(Ceph 的诞生地)的吉祥物有关,这个吉祥物是 “Sammy”,一个香蕉色的蛞蝓,就是头足类中无壳的软体动物。这些有多触角的头足类动物,是对一个分布式文件系统高度并行的形象比喻。
Ceph 最初是一项关于存储系统的 PhD 研究项目,由 Sage Weil 在 University of California, SantaCruz(UCSC)实施。
开发目标
简单定义为以下3项:

  1. 可轻松扩展到数 PB 容量

  2. 支持多种工作负载的高性能(每秒输入/输出操作[IOPS]和带宽)

  3. 高可靠性
    但是,这些目标之间会互相竞争(例如,可扩展性会降低或者抑制性能或者影响可靠性)。Ceph 的设计还包括保护单一点故障的容错功能,它假设大规模(PB 级存储)存储故障是常见现象而不是例外情况。
    它的设计并没有假设某种特殊工作负载,但包括了适应变化的工作负载,并提供最佳性能的能力。它利用 POSIX 的兼容性完成所有这些任务,允许它对当前依赖 POSIX 语义(通过以 Ceph 为目标的改进)的应用进行透明的部署。
    系统架构
    Ceph 生态系统架构可以划分为四部分:

  4. Clients:客户端(数据用户)

  5. cmds:Metadata server cluster,元数据服务器(缓存和同步分布式元数据)

  6. cosd:Object storage cluster,对象存储集群(将数据和元数据作为对象存储,执行其他关键职能)

  7. cmon:Cluster monitors,集群监视器(执行监视功能)
    内容源自百科:https://baike.baidu.com/item/CEPH/1882855
    操作过程
    CEPH环境配置
    192.168.27.210  master(ceph-deploy)  
    192.168.27.211  client1  osd0  mds1、mon1
    192.168.27.212  client2  osd1  mds2、mon2
    192.168.27.213  client3  osd2  mds3、mon3
    主机名
    hostnamectl set-hostname master
    hostnamectl set-hostname client1
    hostnamectl set-hostname client2
    hostnamectl set-hostname client3
    映射主机名:
    192.168.27.210  master
    192.168.27.211  client1
    192.168.27.212  client2
    192.168.27.213  client3
    如何构建Ceph
    确认节点间映射关系的联通性:
    ping -c 3 master
    ping -c 3 client1
    ping -c 3 client2
    ping -c 3 client3
    提示:由于提前做了SSH免登陆,这里把步骤省了,新装需要每台都需要做一次。
    每个节点关闭防火墙和selinux
    #systemctl stop firewalld
    #systemctl disable firewalld
    #sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
    #setenforce 0

    每个节点安装和配置NTP(官方推荐的是集群的所有节点全部安装并配置 NTP,需要保证各节点的系统时间一致。没有自己部署ntp服务器,就在线同步NTP)
    #yum install ntp ntpdate ntp-doc -y
    #systemctl restart ntpd
    systemctl status ntpd

每个节点准备yum源
删除默认的源,国外的比较慢
#yum clean all
#mkdir /mnt/bak
#mv /etc/yum.repos.d/* /mnt/bak/

下载阿里云的base源和epel源
#wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
#wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo

添加ceph源
#vim /etc/yum.repos.d/ceph.repo
[ceph]
name=ceph
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/x86_64/
gpgcheck=0
priority =1
[ceph-noarch]
name=cephnoarch
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/noarch/
gpgcheck=0
priority =1
[ceph-source]
name=Ceph source packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/SRPMS
gpgcheck=0
priority=1
准备磁盘(实际操作也可以省,只要磁盘没问题直接安装都没问题无需要此步骤)
fdisk /dev/sdb
parted -s /dev/sdb mklabel gpt mkpart primary xfs 0% 100%
mkfs.xfs /dev/sdb –f
blkid /dev/sdb #用ansible直观的看下
如何构建Ceph
部署阶段(admin节点上使用ceph-deploy快速部署)
安装ceph-deploy
sudo yum update -y && sudo yum install ceph-deploy -y
创建cluster目录
[root@master ~]# mkdir -pv /data/idc-cluster
mkdir: 已创建目录 "/data/idc-cluster"
如何构建Ceph
创建集群(后面跟集群成员节点名称,这里master节点只做CEPH-DEPLOY使用)
[root@master idc-cluster]# ceph-deploy new client1 client2 client3
如何构建Ceph
在ceph.conf文件中添加红色项并保存
[root@client2 ceph]# cat ceph.conf
[global]
fsid = d5a5f367-97d2-45a5-8b6b-b462bd65fe3d
mon_initial_members = client1, client2, client3
mon_host = 192.168.27.211,192.168.27.212,192.168.27.213
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
osd_pool_default_size= 3
public_network = 192.168.27.0/22
重新推送配置信息到各结点:
[root@master idc-cluster]# ceph-deploy --overwrite-conf config push master client1 client2 client3
初始化集群:
ceph-deploy mon create-initial
如何构建Ceph

如何构建Ceph
添加OSD到集群
准备OSD(使用prepare命令)
[root@master idc-cluster]# ceph-deploy osd prepare client1:/dev/sdb client2:/dev/sdb client3:/dev/sdb

激活OSD(注意由于ceph对磁盘进行了分区,/dev/sdb磁盘分区为/dev/sdb1)
如何构建Ceph
[root@master idc-cluster]# ceph-deploy osd activate client1:/dev/sdb1 client2:/dev/sdb1 client3:/dev/sdb1
如何构建Ceph

[root@master idc-cluster]# ceph-deploy admin master client1 client2 client3
如何构建Ceph
创建文件系统
先查看管理节点状态,默认是没有管理节点的。
[root@master idc-cluster]# ceph mds stat
e1:
[root@master idc-cluster]#
如何构建Ceph
创建管理节点(master结点作为管理节点)
[root@master idc-cluster]# ceph-deploy mds create master
如何构建Ceph
再次查看管理节点状态,发现已经在启动中
[root@master idc-cluster]# ceph mds stat
e2:, 1 up:standby
如何构建Ceph
如何构建Ceph
创建pool,pool是ceph存储数据时的逻辑分区,它起到namespace的作用
先查看下:
ceph osd lspools
如何构建Ceph
新创建的ceph集群只有rdb一个pool。这时需要创建一个新的pool
[root@master idc-cluster]# ceph osd pool create cephfs_data 128  #后面的数字是PG的数量
pool 'cephfs_data' created
如何构建Ceph
再查看下有了:
如何构建Ceph
[root@master idc-cluster]# ceph osd pool create cephfs_metadata 128 #创建pool的元数据
pool 'cephfs_metadata' created
如何构建Ceph
再次查看pool状态:
如何构建Ceph
ceph fs new myceph cephfs_metadata cephfs_data
如何构建Ceph
检查mds管理节点状态
[root@master idc-cluster]# ceph mds stat
如何构建Ceph
查看集群状态有警报:
如何构建Ceph
解决方案
在配置文件中,调大集群的此选项的告警阀值;方法如下,在mon节点的ceph.conf(/etc/ceph/ceph.conf)配置文件中添加:

vi /etc/ceph/ceph.conf
[global]
.......
mon_pg_warn_max_per_osd = 666
推送配置
如何构建Ceph
重启monitor服务:
systemctl restart ceph-mon.target
如何构建Ceph
1、客户端挂载使用cephfs:
[root@BDDB ceph]# ceph-fuse -m 192.168.27.211:6789 /ceph/cephsys
如何构建Ceph
如何构建Ceph
2、使用内核驱动程序挂载CephFs
[root@BDDB ~]# mount -t ceph 192.168.27.213:6789:/ /ceph/cephsys/ -o name=admin,secretfile=/etc/ceph/admin.secret
如何构建Ceph
存放文件效果:
如何构建Ceph

看完了这篇文章,相信你对“如何构建Ceph”有了一定的了解,如果想了解更多相关知识,欢迎关注创新互联行业资讯频道,感谢各位的阅读!

另外有需要云服务器可以了解下创新互联cdcxhl.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。


当前名称:如何构建Ceph-创新互联
网页地址:http://hbruida.cn/article/cdghjg.html