Afin d’augmenter la capacité d’un Cluster de 60Go à 105Go , nous allons ajouter 3 nœuds OSD.
Actuellement
- node01-ceph-admin
- node02-ceph-mon1
- node03-ceph-osd1
- node04-ceph-osd2
- node05-ceph-osd3
- node06-ceph-osd4
Le but
- node01-ceph-admin
- node02-ceph-mon1
- node03-ceph-osd1
- node04-ceph-osd2
- node05-ceph-osd3
- node06-ceph-osd4
- node07-ceph-osd5
- node08-ceph-osd6
- node09-ceph-osd7
Spécification des nouvelles machines
node07-Ceph-osd5
IP : 172.16.186.47
Disque 1 – Système 10Go
Disque 2 – Ceph 20G0
RAM 2G
2vCPU
node08-Ceph-osd6
IP : 172.16.186.48
Disque 1 – Système 10Go
Disque 2 – Ceph 20G0
RAM 2G
2vCPU
node09-Ceph-osd7
IP : 172.16.186.49
Disque 1 – Système 10Go
Disque 2 – Ceph 20G0
RAM 2G
2vCPU
I. Prérequis
1°) ajouter au DNS les nouvelles machines OSD
MODOP – Configurer un DNS Primaire et Secondaire – Centos7
root@floki03:~# ssh -l root dns-pri
[root@dns-pri ~]# vi /var/named/forward.house.cpb ; Cluster CEPH node01-ceph-admin IN A 172.16.186.40 node02-ceph-mon1 IN A 172.16.186.41 node03-ceph-osd1 IN A 172.16.186.42 node04-ceph-osd2 IN A 172.16.186.43 node05-ceph-osd3 IN A 172.16.186.44 node06-ceph-osd4 IN A 172.16.186.45 node-ceph-client1 IN A 172.16.186.46 node07-ceph-osd5 IN A 172.16.186.47 node08-ceph-osd6 IN A 172.16.186.48 node09-ceph-osd7 IN A 172.16.186.49
[root@dns-pri ~]# vi /var/named/reversevmbr3.house.cpb ; CEPH CLuster 40 IN PTR node01-ceph-admin.house.cpb. 41 IN PTR node02-ceph-mon1.house.cpb. 42 IN PTR node03-ceph-osd1.house.cpb. 43 IN PTR node04-ceph-osd2.house.cpb. 44 IN PTR node05-ceph-osd3.house.cpb. 45 IN PTR node06-ceph-osd4.house.cpb. 46 IN PTR node-ceph-client1.house.cpb. 47 IN PTR node07-ceph-osd5.house.cpb. 48 IN PTR node08-ceph-osd6.house.cpb. 49 IN PTR node09-ceph-osd7.house.cpb.
[root@dns-pri ~]# systemctl reload named
2°) Installation des middlewares (3 nœuds OSD)
[root@node07-ceph-osd5 ~]# yum update -y [root@node07-ceph-osd5 ~]# yum install -y htop nmap net-tools wget
3°) Installation ntpd (3 nœuds OSD)
[root@node07-ceph-osd5 ~]# yum install ntp ntpdate ntp-doc -y [root@node07-ceph-osd5 ~]# chkconfig ntpd on [root@node07-ceph-osd5 ~]# ntpdate pool.ntp.org [root@node07-ceph-osd5 ~]# systemctl start ntpd
4°) Désactivation Selinux (3 nœuds OSD)
[root@node07-ceph-osd5 ~]# sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config [root@node07-ceph-osd5 ~]# reboot
5°) Désactivation IPv6 (3 nœuds OSD)
[root@node07-ceph-osd5 ~]# vi /etc/sysctl.conf net.ipv6.conf.all.disable_ipv6 = 1 net.ipv6.conf.all.autoconf = 0 net.ipv6.conf.default.disable_ipv6 = 1 net.ipv6.conf.default.autoconf = 0
[root@node07-ceph-osd5 ~]# sysctl -p
6°) Création Utilisateur et ajout droit sudoers (3 nœuds OSD)
[root@node07-ceph-osd5 ~]# useradd -d /home/cephuser -m cephuser [root@node07-ceph-osd5 ~]# passwd cephuser [root@node07-ceph-osd5 ~]# echo "cephuser ALL = (root) NOPASSWD:ALL" >> /etc/sudoers.d/cephuser [root@node07-ceph-osd5 ~]# chmod 0440 /etc/sudoers.d/cephuser [root@node07-ceph-osd5 ~]# sed -i s'/Defaults requiretty/#Defaults requiretty'/g /etc/sudoers
II. Connexion SSH (node01-Ceph-admin)
root@floki03:~# ssh -l root node01-ceph-admin [cephuser@node01-ceph-admin ~]$ su - cephuser
[cephuser@node01-ceph-admin ~]$ vi ~/.ssh/config Host node07-ceph-osd5 Hostname node07-ceph-osd5 User cephuser Host node08-ceph-osd6 Hostname node08-ceph-osd6 User cephuser Host node09-ceph-osd7 Hostname node09-ceph-osd7 User cephuser
[cephuser@node01-ceph-admin ~]$ chmod 644 ~/.ssh/config [cephuser@node01-ceph-admin ~]$ ssh-keyscan node07-ceph-osd5 node08-ceph-osd6 node09-ceph-osd7 >> ~/.ssh/known_hosts
[cephuser@node01-ceph-admin ~]$ ssh-copy-id node07-ceph-osd5 [cephuser@node01-ceph-admin ~]$ ssh-copy-id node08-ceph-osd6 [cephuser@node01-ceph-admin ~]$ ssh-copy-id node09-ceph-osd7
III. Configurer Firewall(3 nœuds OSD)
node07-ceph-osd5
root@floki03:~# ssh -l root node07-ceph-osd5 [root@node07-ceph-osd5 ~]# systemctl start firewalld && systemctl enable firewalld [root@node07-ceph-osd5 ~]# firewall-cmd --zone=public --add-port=6800-7300/tcp --permanent && firewall-cmd --reload [root@node07-ceph-osd5 ~]# firewall-cmd --list-port 6800-7300/tcp
node08-ceph-osd6
root@floki03:~# ssh -l root node08-ceph-osd6 [root@node04-ceph-osd2 ~]# systemctl start firewalld && systemctl enable firewalld [root@node04-ceph-osd2 ~]# firewall-cmd --zone=public --add-port=6800-7300/tcp --permanent && firewall-cmd --reload
node09-ceph-osd7
root@floki03:~# ssh -l root node09-ceph-osd7 [root@node05-ceph-osd3 ~]# systemctl start firewalld && systemctl enable firewalld [root@node05-ceph-osd3 ~]# firewall-cmd --zone=public --add-port=6800-7300/tcp --permanent && firewall-cmd --reload
IV. Configurer les disques Ceph des noeuds OSD
node07-ceph-osd5
root@floki03:~# ssh -l root node07-ceph-osd5 [root@node07-ceph-osd5 ~]# sudo fdisk -l /dev/sdb
[root@node07-ceph-osd5 ~]# sudo parted -s /dev/sdb mklabel gpt mkpart primary xfs 0% 100% [root@node07-ceph-osd5 ~]# sudo mkfs.xfs /dev/sdb -f
[root@node07-ceph-osd5 ~]# sudo blkid -o value -s TYPE /dev/sdb Xfs
node08-ceph-osd6
[root@node08-ceph-osd6 ~]# sudo parted -s /dev/sdb mklabel gpt mkpart primary xfs 0% 100% [root@node08-ceph-osd6 ~]# sudo mkfs.xfs /dev/sdb -f [root@node08-ceph-osd6 ~]# sudo blkid -o value -s TYPE /dev/sdb xfs
node09-ceph-osd7
[root@node09-ceph-osd7 ~]# sudo parted -s /dev/sdb mklabel gpt mkpart primary xfs 0% 100% [root@node09-ceph-osd7 ~]# sudo mkfs.xfs /dev/sdb -f [root@node09-ceph-osd7 ~]# sudo blkid -o value -s TYPE /dev/sdb xfs
V. Installer ceph sur les noeuds OSD (node01-ceph-admin)
1°) Installation de ceph sur les nœuds OSD
[cephuser@node01-ceph-admin ~]$ ssh -l root node01-ceph-admin [root@node01-ceph-admin ~]# su - cephuser [cephuser@node01-ceph-admin ~]$ cd cluster/ [cephuser@node01-ceph-admin cluster]$ ceph-deploy install node07-ceph-osd5 node08-ceph-osd6 node09-ceph-osd7
L’installation de ceph va être déployée sur l’ensemble des nœuds OSD.
Cela devait prendre entre 5-10minutes.
2°) Déployer les disques /dev/sdb – nœuds OSD – sur le Cluster
[cephuser@node01-ceph-admin cluster]$ ceph-deploy disk list node07-ceph-osd5 node08-ceph-osd6 node09-ceph-osd7
3°) Préparer les disques /dev/sdb – nœuds OSD – sur le Cluster
[cephuser@node01-ceph-admin cluster]$ ceph-deploy disk zap node07-ceph-osd5:/dev/sdb node08-ceph-osd6:/dev/sdb node09-ceph-osd7:/dev/sdb
[cephuser@node01-ceph-admin cluster]$ ceph-deploy osd prepare node07-ceph-osd5:/dev/sdb node08-ceph-osd6:/dev/sdb node09-ceph-osd7:/dev/sdb
4°) Activons la partition /dev/sdb1 des nœuds OSD
[cephuser@node01-ceph-admin cluster]$ ceph-deploy osd activate node07-ceph-osd5:/dev/sdb1 node08-ceph-osd6:/dev/sdb1 node09-ceph-osd7:/dev/sdb1
[cephuser@node01-ceph-admin cluster]$ ceph-deploy disk list node07-ceph-osd5 node08-ceph-osd6 node09-ceph-osd7
5°) Déployer Admin sur les nouveaux nœuds OSD
[cephuser@node01-ceph-admin cluster]$ ceph-deploy admin node07-ceph-osd5 node08-ceph-osd6 node09-ceph-osd7
Changement des droits sur le fichier « ceph.client.admin.keyring »
[cephuser@node01-ceph-admin cluster]$ sudo chmod 644 /etc/ceph/ceph.client.admin.keyring
VI. Vérifions l’état du nouveau Cluster Cluster
[cephuser@node01-ceph-admin cluster]$ sudo ceph –s
[cephuser@node01-ceph-admin cluster]$ sudo ceph osd tree
TROUBLESHOT rencontré lors de mes essais
[root@node01-ceph-admin ~]# ssh -l root node02-ceph-mon1 [root@node02-ceph-mon1 ~]#ceph osd pool set rbd pg_num 256 set _num to 256 [root@node02-ceph-mon1 ~]#ceph osd pool set rbd pgp_num 256 set pool 0 pgp_num to 256
[cephuser@node01-ceph-admin cluster]$ sudo ceph –s
Views: 15