- 用户通过“kubectl”部署一个新的应用程序。Kubectl将请求发送到API服务器。
- API服务器接收请求并将其存储在数据存储(etcd)中。将请求写入数据存储后,API服务器将完成请求。
通过kubenetes Helm安装Ceph
准备环境
公共网络和集群网络必须相同
如果存储类用户标识不是admin,则必须在Ceph集群中手动创建用户并在Kubernetes中创建其密钥
ceph-mgr只能运行1个副本
启动本地Helm
ceph-helm项目默认使用本地Helm repo来存储images,要启动本地Helm repo服务器
1 | $ helm serve & |
增加本地helm仓库
1 | $ git clone https://github.com/ceph/ceph-helm |
配置Ceph
创建一个ceph-overrides.yaml Ceph配置来覆盖ceph-helm默认值
1 | $ cat ~/ceph-overrides.yaml |
创建kubernetes 命名空间
1 | $ kubectl create namespace ceph |
配置RBAC权限
Kubernetes> = v1.6使用RBAC为默认权限,rbac.yaml默认在git clone下来的文件夹里面
1 | kubectl create -f ~/ceph-helm/ceph/rbac.yaml |
创建标签
# Ceph Monitor
$ kubectl label node <nodename> ceph-mon=enabled ceph-mgr=enabled
# OSD node
$ kubectl label node <nodename> ceph-osd=enabled ceph-osd-device-dev-sdb=enabled ceph-osd-device-dev-sdc=enabled
ORA-00980同义词转换不再有效
Vmware虚拟机系统重启后系统无法进入解决
故障提示:fsck.ext4: No such file or directory while trying to open /dev/sdc1
故障原因:如挂着硬盘无法读取或者被删掉
kubernetes包管理器Helm快速安装
利用 kubeadm 部署 Kubernetes v1.11.x HA 集群
本篇将说明如何透过Kubeadm来部署Kubernetes v1.11版本的高可用性丛集,而本安装主要是参考官方文件中的用kubeadm创建高可用的集群内容来进行,这边将透过HAProxy与Keepalived的结合来实现控制面的Load Balancer与VIP。
Ceph luminous 安装配置
备注:
简易安装ceph luminous版本,用于kubernetes PV,详情移至Ceph官网,部署Ceph至少一个MON,三个OSD。Ceph 分布式存储集群有三大组件组成,分为:Ceph Monitor、Ceph OSD、Ceph MDS,后边使用对象存储和块存储时,MDS 非必须安装,只有当使用 Cephfs 文件存储时,才需要安装。
自动部署osd可以采用 ceph-deploy ,也可以采用 ceph-disk 命令
luminous版本中,删除OSD可以直接使用 ceph osd purge 命令,比较省心
生产环境中磁盘的挂载尽量采用uuid/partuuid
1
http://docs.ceph.com/docs/master/start/quick-ceph-deploy/
Nginx根据指定IP转发链接
需求
因项目变更,外网官网跳转到维护界面,指定ip地址能够正常访问
基于Docker Swarm 构建MongoDB分片副本集群
Oracle 11g2 DataGuard简单部署
环境:
centos 7
redhat 6.4
oracle 11.2.0.4