Remover o disco 3 na vm osd3
Vamos iniciar a vm via console do VirtualBox , pois se tentarmos subir pelo Vagrant irá gerar erros.
Após a vm ser reiniciada podemos ver abaixo o ouput do health do Ceph e a listagem de OSDs com uma OSD DOWN.
Para que o algoritmo CRUSH não faça rebalance no cluster, vamos colocar o cluster em manutenção.
# sudo ceph osd set noout
Após verificarmos o estado do cluster iremos executar power off na vm osd3 e adicionar outro disco startando a vm via console do VirtualBox logo em seguida.
3) Trocando o disco na versão Filestore
Iremos formatar a partição de journaling , pois no momento que o disco entrou em “falha” ele perdeu a associação com a OSD.
[ceph@osd3 ~]$ sudo ceph-volume lvm list /dev/sdb2
No valid Ceph devices found
Podemos ver no /dev/sdb1 a relação do journal com a partição
Removendo a partição de journaling.
Após reabilitar o “rebalancer” o cluster irá entrar se rebalancear e o tempo de recovery será de acordo as configurações de replica e disponibilidade do ambiente (rede e tipo de disco).
Deixe um comentário