Commit ba34e08c authored by Thierry Fenasse's avatar Thierry Fenasse

ajout de 3 disques (donc 3 OSD) et essais avec une vidéo

parent f3018837
......@@ -308,3 +308,76 @@ Il est à noté que durant se « dysfonctionnement », ça n'a pas empéché la
## Le troisième jour
J'ai ajouté 3 disques de 500GB dans chacun des hpc01,2&3 pour en faire 3 OSD supplémentaire.
Tout ce que j'ai fait c'est ceci :
### Depuis mon PC Devuan
Le même PC utilisé pour ```ceph-deploy``` et depuis le même dossier « my-cluser » datant du début de ce labo.
```
ceph-deploy osd create --zap-disk hpc01:sdc
ceph-deploy osd create --zap-disk hpc02:sdc
ceph-deploy osd create --zap-disk hpc03:sdc
```
Et tout de suite après sur une de ces machine ou le pve :
```
ceph -s
```
Pour constater que le HEALTH_OK est devenu HEALT_WARN et que le travail de déplacement / réorganisation des PGs _(Placement Groups)_ est en cours.
```
root@pve:~# ceph -s
cluster d3ac5ae7-19ad-4ed9-8d6d-f49e68830c5c
health HEALTH_WARN
1 pgs backfill_wait
20 pgs degraded
1 pgs recovering
19 pgs recovery_wait
20 pgs stuck degraded
21 pgs stuck unclean
recovery 5511/20292 objects degraded (27.158%)
recovery 116/20292 objects misplaced (0.572%)
monmap e3: 3 mons at {hpc01=192.168.12.121:6789/0,hpc02=192.168.12.122:6789/0,hpc03=192.168.12.123:6789/0}
election epoch 20, quorum 0,1,2 hpc01,hpc02,hpc03
fsmap e21: 1/1/1 up {0=hpc02=up:active}, 2 up:standby
osdmap e71: 6 osds: 6 up, 6 in; 1 remapped pgs
flags sortbitwise,require_jewel_osds
pgmap v3229: 80 pgs, 3 pools, 26517 MB data, 6764 objects
82925 MB used, 2682 GB / 2763 GB avail
5511/20292 objects degraded (27.158%)
116/20292 objects misplaced (0.572%)
59 active+clean
19 active+recovery_wait+degraded
1 active+remapped+wait_backfill
1 active+recovering+degraded
recovery io 57182 kB/s, 14 objects/s
```
La petite vidéo suivante vous montrera que la configuration, **sans rien faire de plus**, est remontée jusqu'au Proxmox, y compris la crush-map qui contient maintenant 6 OSD.
![De 3 à 6 OSD dans Ceph et Proxmox](./assets/passage_de_3_a_6_osd_ceph_pour_proxmox.webm)
Et quelques minutes plus tard (±15), le status est à nouveau HEALT_OK.
```
root@pve:~# ceph -s
cluster d3ac5ae7-19ad-4ed9-8d6d-f49e68830c5c
health HEALTH_OK
monmap e3: 3 mons at {hpc01=192.168.12.121:6789/0,hpc02=192.168.12.122:6789/0,hpc03=192.168.12.123:6789/0}
election epoch 20, quorum 0,1,2 hpc01,hpc02,hpc03
fsmap e21: 1/1/1 up {0=hpc02=up:active}, 2 up:standby
osdmap e73: 6 osds: 6 up, 6 in
flags sortbitwise,require_jewel_osds
pgmap v3556: 80 pgs, 3 pools, 26517 MB data, 6764 objects
80367 MB used, 2684 GB / 2763 GB avail
80 active+clean
```
## Pour la suite
L'idée étant de voir si les performances sont un peu mieux avec 6 OSD au lieu de 3 puisque par défaut la redondance est de 3 (3 disques doivent avoir une copie des données), je suis curieux de voir ce qu'il fait avec 6 disques.
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment