Je viens de simuler ton contexte
1) Création d'un RAID6 composé de 7 partitions de 25 Go chacune.
2) Remplissage à 100% de ce raid . Ce qui prend environ 3 heures.
3) Simulation d'une panne et réinjection de la partition. Ce qui entraîne la remise en état.
a@b:~$ sudo cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md50 : active raid6 sdd7[7] sdd10[6] sdd9[5] sdd8[4] sdd6[2] sdd5[1] sdd4[0]
129751040 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUU_UUU]
[>....................] recovery = 0.2% (75648/25950208) finish=142.4min speed=3025K/sec
4) Constat. Cela est estimé à plus de deux heures pour 25 Go! Disons 10 go par heure....
sudo cat /proc/mdstat | grep recovery
[=>...................] recovery = 8.0% (2080644/25950208) finish=109.4min speed=3635K/sec
5) Prochain test: En déclarer deux HS.
a@b:~$ lsblk -fe7 -o +size /dev/sdd
NAME FSTYPE LABEL UUID FSAVAIL FSUSE% MOUNTPOINT SIZE
sdd 189,9G
├─sdd1 32M
├─sdd2 vfat 4B6D-0A9E 512M
├─sdd3 ext4 eb69513c-8cbc-4f19-a182-a0cd98672776 16G
├─sdd4 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
│ └─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
├─sdd5 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
│ └─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
├─sdd6 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
│ └─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
├─sdd7 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
│ └─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
├─sdd8 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
│ └─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
├─sdd9 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
│ └─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
└─sdd10 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
└─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
a@b:~$
a@b:~$ sudo mdadm --manage /dev/md50 --set-faulty /dev/sdd6
mdadm: set /dev/sdd6 faulty in /dev/md50
a@b:~$ sudo mdadm --manage /dev/md50 --remove /dev/sdd6
mdadm: hot removed /dev/sdd6 from /dev/md50
a@b:~$ sudo mdadm --manage /dev/md50 --set-faulty /dev/sdd8
mdadm: set /dev/sdd8 faulty in /dev/md50
a@b:~$ sudo mdadm --manage /dev/md50 --remove /dev/sdd8
mdadm: hot removed /dev/sdd8 from /dev/md50
a@b:~$ sudo umount /dev/md50
a@b:~$ sudo mount /dev/md50 /media/RAID50
a@b:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md50 : active raid6 sdd7[7] sdd10[6] sdd9[5] sdd5[1] sdd4[0]
129751040 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/5] [UU_U_UU]
...
a@b:~$ sudo ls -Rls /media/RAID50
/media/RAID50:
total 24
........
a@b:~$ date
mer. 10 févr. 2021 17:38:28 CET
a@b:~$ sudo mdadm --manage /dev/md50 --add /dev/sdd6
mdadm: added /dev/sdd6
a@b:~$ date
mer. 10 févr. 2021 17:38:28 CET
a@b:~$ sudo mdadm --manage /dev/md50 --add /dev/sdd8
mdadm: added /dev/sdd8
a@b:~$ date
mer. 10 févr. 2021 17:38:30 CET
a@b:~$ sudo cat /proc/mdstat | grep recovery
[>....................] recovery = 0.5% (136020/25950208) finish=129.6min speed=3317K/sec
a@b:~$
:~$ date && sudo cat /proc/mdstat | grep recovery
mer. 10 févr. 2021 19:40:05 CET
[sudo] Mot de passe de a :
[===================>.] recovery = 95.7% (24841944/25950208) finish=5.2min speed=3499K/sec
a@b:~$ date && sudo cat /proc/mdstat | grep recovery
mer. 10 févr. 2021 19:45:49 CET
cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md50 : active raid6 sdd8[9] sdd6[8] sdd7[7] sdd10[6] sdd9[5] sdd5[1] sdd4[0]
129751040 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/7] [UUUUUUU]