ceph
DAS(直连存储,usb,硬盘插到电脑):scsi接口 接口数量有限 传输距离有限
SAN(存储区域网络):ip-san 网络(iscsi) 以太网 fc-san网络 (fc协议) 光纤模块
ceph rbd
scsi重新封装为iscsi,iscsi在ip网络里跑
scsi协议让你在电脑上写数据到硬盘,加了个i可以让你在san的区域网络中传输
使用:格式化 挂载 (存文件 修改 创建 删除) 延迟低(vim保存,不能让我等很久)
NAS:网络附加存储 通过网络共享目录
nfs:unix nfs
cifs:samba 网上邻居
cephfs(manila的后端,cl210的实验)
glusterfs:属于红帽,ceph也属于红帽
moosefs
server共享目录,client挂载目录使用
hdfs:hadoop分布式文件系统
使用:挂载 (存文件 修改 创建 删除) 延迟低
ceph
非结构化数据 备份文件
使用:上传和下载文件,无法进行编辑 延迟高(下载是需要等很久的)
url: http://super.com/cl210/iso
下载下来,修改,再上传
分布式,把你的一个文件切块了。编辑延迟高
结构化数据:数据库 (购物,商品价格数量。有规律,一列一列的)
非结构化数据:多媒体(图片 视频 音频)
ceph 包含以上三个类型
传统存储 DAS NAS SAN RAID 扩容问题不方便 将一堆磁盘,放在一个控制器里 纵向扩展 scale up 扩容cpu 内存 硬盘 (可能更贵) 硬件 给钱 分布式存储 (性能是不如传统存储,比如数据库) 无中心节点 普通服务器存储数据(硬盘,cpu,内存) 横向扩展 scale out 扩服务器,加节点 (节点可以横向扩展,无中心节点,偏向软件) 软件 人才要求 数据文件类型的改变(图片视频),使用传统存储性价比很低,除非对特定性能有需求
ceph 软件定义 统一存储解决方案的开源项目
ceph 分布式 可扩展 高性能 不存在单点故障 支持pb级规模数据
同时支持 块存储 文件系统存储 对象存储(兼容swift s3协议)
SDS 能将存储软件与硬件分隔开的存储架构
openstack 镜像可以使用对象存储(cl210) swift s3 ceph(用别人开发的接口调用 s3与swift)
ceph shell
ceph -v 查看ceph版本
16.0 最早 16.1 测试 16.2 稳定版 区别: 部署方式:ceph-ansible vs cephadm 容器 存储驱动:xfs文件 vs bluestore 增加图像界面 L版 RHCS3 N版 RHCS4 P版 RHCS5 (当前版本 cl260)
关于ceph的安装
可以centos7.8尝试 ceph-admin需要python3 需要docker
moosefs
问题:元数据存储检索
需要两个元数据服务器保证可靠性
分布式存储,3副本保证可靠性,如果三个节点,一个节点存一个副本
找元数据时,从找硬盘,变成找内存从而提升效率
(中间上部分为元数据部分)
主备元数据解决方案,通过内存刷新到共享磁盘。主挂了之后
备份从磁盘读取所有元数据。这需要时间
glusterfs
不像moosefs有元数据服务器,glusterfs元数据分散在glusterfs每个节点
客户端工具,配置文件。第一次检索时,则缓存。会用到客户端的内存
ceph
客户端也拥有配置文件
monitor为整个集群的入口
不需要文件系统时,mds可以省略,也不需要文件系统的元数据
单从文件系统来看,ceph不如glusterfs,但是万金油
集群:所有节点做一件事情 分布式:所有节点协作达成目的 分布式是指 多个系统协同合作完成一个特定任务的系统。 分布式是解决中心化管理的问题,把所有的任务叠加到一个节点处理,太慢了。 所以把一个大的问题拆分为多个小的问题,并分别解决,最终协同合作。分布式的主要工作是分解任务,将职能拆解。 集群主要的使用场景是为了分担请求的压力,也就是在几个服务器上部署相同的应用程序,来分担客户端请求。
三个mon保证两个mon存活
mon >= 1.5 仲裁机制 超过半数以上集群存活
rhcs5: redhat ceph storage 5
8.4的环境基础包,可以兼容所有课程,因为这个环境版本很高,低版本则不行
就是说,下次不用下载环境基础包