[RAID] mdadm (RÉSOLU)
Publié : dim. 21 juin 2015, 12:05
Bonjour Le Forum,
Actuellement (jusqu'à vendredi 19), voici la configuration RAID :
J'ai 4 HDD + 1 SSD + 1 HDD.
Sur les 4 HDD, 2 sont configurés en RAID0 (sur tout le disque), et 2 autres sont également en RAID0 (mais uniquement sur le début du disque).
Bien que cela puisse être bizarre, /etc/mdadm.conf est "vierge". La configuration des RAID0 n'y ai pas et ça fonctionne très bien... Le système et le SWAP sont sur le SSD. Quand au HDD, il est uniquement en stockage (pour la virtualisation)
Tout de suite pas trop d’intérêt, mais c'est juste pour info
Après vendredi 19
Je viens d'avoir 3 HDD (deux de 5To et un de 4To).
Je retire le HDD, puis mets les 3 HDD dans le pc
Je crée une table de partition (GPT) et une partition sur tout le disque (de 4To) avec le drapeau "RAID".
Sauvegarde de la table de partition de 4To :
Puis, je mets la table de partition de 4To dans les disques de 5To :
Pour la suite des DD de 5To, juste une création d'une partition jusqu'à la fin.
Comme ça, j'ai (logiquement) une partition identique (en taille) de 4To.
Grâce à ça, je vais pouvoir créer un RAID1 + 1 spare de 4To
puis, un autre RAID1 sans spare de 1To
Un petit
C'est long... Environ 8 heures pour synchroniser les deux RAID1. Je profite, pour filer l'info que la bitmap est interne au RAID (confirmé par
Une fois la synchro effectuée (confirmation par un
Je redémarre le pc (au p'tio matin), et là.......... c'est le drame....
Voici le retour de
Les p'tits noms des md ont été changés... Mais surtout, les deux RAID1 sont inactifs....
Donc, un petit
là, j'étais déjà un peu larguer du beuzio, mais là encore plus.... Car, comme dis plus haut, le mdadm était vierge avant... Alors, comment ce faisse que les deux RAID0 fonctionnent très bien sans les infos dans /etc/mdadm.conf. Un petit
Mais le principal n'est pas trop là...[/i]
J'ai également tenté plusieurs manips, avec mdadm pour assembler en manu sans réponse concluante...
Voici le retour de
Où sont les bitmap, et pourquoi la taille du RAID1 de 4To (2+1 spare) de -1 ?
Un petit
Mais bon, il faut voir certains bons côtés. Voici quelques infos en plus (il n'y en a pas assez....):
Les partitions sont bien détectées en volume RAID. C'est également confirmé par gparted.
Pour le RAID1 de 1To (2 /dev)
Pour le RAID1 de 4To (2 /dev + 1 spare)
Comment peut-il y avoir une bitmap 30 pages pour le RAID de 4To (lors de la création & synchronisation), alors que dans le détail il n'y en a que 8 ?
J'avoue, beaucoup de questions pour un seul post...
Juste une ou deux en sortie :
Dois-je effectuer la création des RAID1 depuis le début pas trop chaud. Juste au niveau du temps. Car heureusement, il n'y a aucune donnée dessus ?
Est-ce que ça pose problème de créer un RAID1 sous Archlinux, puis de le mettre ensuite sous Debian ? Je ne pense pas...
Merci pour les réponses.
Bon dimanche.
Actuellement (jusqu'à vendredi 19), voici la configuration RAID :
J'ai 4 HDD + 1 SSD + 1 HDD.
Sur les 4 HDD, 2 sont configurés en RAID0 (sur tout le disque), et 2 autres sont également en RAID0 (mais uniquement sur le début du disque).
Bien que cela puisse être bizarre, /etc/mdadm.conf est "vierge". La configuration des RAID0 n'y ai pas et ça fonctionne très bien... Le système et le SWAP sont sur le SSD. Quand au HDD, il est uniquement en stockage (pour la virtualisation)
Tout de suite pas trop d’intérêt, mais c'est juste pour info
Après vendredi 19
Je viens d'avoir 3 HDD (deux de 5To et un de 4To).
Je retire le HDD, puis mets les 3 HDD dans le pc
Je crée une table de partition (GPT) et une partition sur tout le disque (de 4To) avec le drapeau "RAID".
Sauvegarde de la table de partition de 4To :
Code : Tout sélectionner
# sfdisk -d /dev/4To > Table_4To.dmp
Code : Tout sélectionner
# sfdisk -d /dev/5To < Table_4To.dmp
Comme ça, j'ai (logiquement) une partition identique (en taille) de 4To.
Grâce à ça, je vais pouvoir créer un RAID1 + 1 spare de 4To
Code : Tout sélectionner
# mdadm --create /dev/md101 --level=1 --raid-devices=2 /dev/sdb1 /dev/sdf1 --spare-disks=1 /dev/sde1
Code : Tout sélectionner
# mdadm --create /dev/md102 --level=1 --raid-devices=2 /dev/sdb2 /dev/sdf2
$ watch -n0,1 cat /proc/mdsat
m'informe de l’avancement...
Code : Tout sélectionner
Personalities : [raid0] [raid1]
md102 : active raid1 sdb2[1] sdf2[0]
976621568 blocks super 1.2 [2/2] [UU]
resync=DELAYED
bitmap: 8/8 pages [32KB], 65536KB chunk
md101 : active raid1 sde1[2] (S) sdb1[1] sdf1[0]
3906885632 blocks super 1.2 [2/2] [UU]
[=======>.............] resync = 36.4% (1424994916/3906885632) finish=301.3min speed=137268K/sec
bitmap: 20/30 pages [80KB], 65536KB chunk
md126 : active raid0 sdc1[1] sdd1[0]
312576000 blocks super 1.2 512k chunks
md127 : active raid0 sdh1[0] sdg1[1]
40927232 blocks super 1.2 512k chunks
unused devices: <none>
# mdadm --detail /dev/md101
)Une fois la synchro effectuée (confirmation par un
# mdadm --detail /dev/md101
), je formate /dev/md101 puis éteins le PC (oui, il était tard... Mais je pense, première erreur)...Je redémarre le pc (au p'tio matin), et là.......... c'est le drame....
Voici le retour de
$ cat /proc/mdsat
Code : Tout sélectionner
Personalities : [raid0]
md124 : active raid0 sdc1[1] sdd1[0]
312576000 blocks super 1.2 512k chunks
md125 : inactive sdf2[0] sdb2[1]
1953243136 blocks super 1.2
md126 : inactive sdf1[0] sdb1[1] sde1[2](S)
11720656896 blocks super 1.2
md127 : active raid0 sdh1[0] sdg1[1]
40927232 blocks super 1.2 512k chunks
unused devices: <none>
Donc, un petit
# mdadm --detail --scan --verbose >> /etc/mdadm/mdadm.conf
puis redémarrage... Mais, nan, le /proc/mdsat
redonne le même résultat.là, j'étais déjà un peu larguer du beuzio, mais là encore plus.... Car, comme dis plus haut, le mdadm était vierge avant... Alors, comment ce faisse que les deux RAID0 fonctionnent très bien sans les infos dans /etc/mdadm.conf. Un petit
# whereis mdadm
m'informe qu'il n'y a pas d'autre mdadm.conf :Code : Tout sélectionner
mdadm: /usr/bin/mdadm /etc/mdadm.conf /usr/share/man/man8/mdadm.8.gz
J'ai également tenté plusieurs manips, avec mdadm pour assembler en manu sans réponse concluante...
Voici le retour de
# mdadm --detail /dev/RAID1
Code : Tout sélectionner
/dev/md125:
Version : 1.2
Creation Time : Sat Jun 20 12:15:37 2015
Raid Level : raid1
Used Dev Size : 976621568 (931.38 GiB 1000.06 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Jun 21 08:18:35 2015
State : active, Not Started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : Indien:102 (local to host Indien)
UUID : 6c7e0d92:d2609bc3:8e6c02b5:99667237
Events : 2272
Number Major Minor RaidDevice State
0 8 82 0 active sync /dev/sdf2
1 8 18 1 active sync /dev/sdb2
Code : Tout sélectionner
/dev/md126:
Version : 1.2
Creation Time : Sat Jun 20 12:14:56 2015
Raid Level : raid1
Used Dev Size : -1
Raid Devices : 2
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sun Jun 21 08:18:35 2015
State : active, Not Started
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1
Name : Indien:101 (local to host Indien)
UUID : 0917b94e:bfff601b:44ffb3ba:ed5eeea9
Events : 6142
Number Major Minor RaidDevice State
0 8 81 0 active sync /dev/sdf1
1 8 17 1 active sync /dev/sdb1
2 8 65 - spare /dev/sde1
Un petit
# mdadm --run /dev/md125
ne fait rien...Mais bon, il faut voir certains bons côtés. Voici quelques infos en plus (il n'y en a pas assez....):
# blkid
(j'ai un peu nettoyé...)
Code : Tout sélectionner
/dev/sdc1: UUID="2462ed6f-b234-cc39-1567-b1e2794d1c40" UUID_SUB="83719f26-d279-2251-3669-93cbac9863b7" LABEL="'localhost.localdomain':0" TYPE="linux_raid_member" PARTUUID="88b20b70-2092-4f49-902d-eb6025be2877"
/dev/sdb1: UUID="0917b94e-bfff-601b-44ff-b3baed5eeea9" UUID_SUB="4e644c63-ffd0-6e63-5ad2-4710a17f277f" LABEL="Indien:101" TYPE="linux_raid_member" PARTUUID="f8d36866-c242-4381-830b-716ec246ed56"
/dev/sdb2: UUID="6c7e0d92-d260-9bc3-8e6c-02b599667237" UUID_SUB="32b2194e-4f74-0838-afcb-3285063e2791" LABEL="Indien:102" TYPE="linux_raid_member" PARTUUID="ffc5741a-0b12-4704-8b2b-b3c1e1afebd8"
/dev/sdd1: UUID="2462ed6f-b234-cc39-1567-b1e2794d1c40" UUID_SUB="7c6588be-bdcc-1a85-750d-1a3847b0c10b" LABEL="'localhost.localdomain':0" TYPE="linux_raid_member" PARTUUID="be597410-bab9-4993-9c5d-92664835cf89"
/dev/sde1: UUID="0917b94e-bfff-601b-44ff-b3baed5eeea9" UUID_SUB="3ae0fa4b-dda9-b08c-c41d-24e09b768b9e" LABEL="Indien:101" TYPE="linux_raid_member" PARTUUID="f8d36866-c242-4381-830b-716ec246ed56"
/dev/sdg1: UUID="59bb605a-7861-3482-b43a-1bcb59de2051" UUID_SUB="6da65262-c154-f956-80c1-fdc78e70efe6" LABEL="'localhost.localdomain':129" TYPE="linux_raid_member" PARTUUID="5048007c-df47-4480-b924-e55b91f23d7a"
/dev/sdf1: UUID="0917b94e-bfff-601b-44ff-b3baed5eeea9" UUID_SUB="60adf350-c4ae-8e1e-b518-cd18ca44e3af" LABEL="Indien:101" TYPE="linux_raid_member" PARTUUID="f8d36866-c242-4381-830b-716ec246ed56"
/dev/sdf2: UUID="6c7e0d92-d260-9bc3-8e6c-02b599667237" UUID_SUB="a9ab0e8d-2681-f37f-c133-d73635070386" LABEL="Indien:102" TYPE="linux_raid_member" PARTUUID="ffc5741a-0b12-4704-8b2b-b3c1e1afebd8"
/dev/sdh1: UUID="59bb605a-7861-3482-b43a-1bcb59de2051" UUID_SUB="3f0619cd-35a2-a0d4-510d-de97dcfca4d0" LABEL="'localhost.localdomain':129" TYPE="linux_raid_member" PARTUUID="d17ca7c5-5ea8-443c-ac41-3d7a84fb0d5c"
/dev/md127: LABEL="RAPTOR__RAID0" UUID="f4c43173-da62-42ab-b1ad-212230bc8278" TYPE="ext4"
/dev/md124: LABEL="AUTOPANO__RAID0" UUID="900df14e-be05-4d8d-8414-e55404c72173" TYPE="ext4"
mdadm --examine /dev/du_RAID1_en_Question
Pour le RAID1 de 1To (2 /dev)
Code : Tout sélectionner
/dev/sdf2:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 6c7e0d92:d2609bc3:8e6c02b5:99667237
Name : Indien:102 (local to host Indien)
Creation Time : Sat Jun 20 12:15:37 2015
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 1953243136 (931.38 GiB 1000.06 GB)
Array Size : 976621568 (931.38 GiB 1000.06 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=0 sectors
State : clean
Device UUID : a9ab0e8d:2681f37f:c133d736:35070386
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jun 21 08:18:35 2015
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : e376560c - correct
Events : 2272
Device Role : Active device 0
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
Code : Tout sélectionner
/dev/sdb2:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 6c7e0d92:d2609bc3:8e6c02b5:99667237
Name : Indien:102 (local to host Indien)
Creation Time : Sat Jun 20 12:15:37 2015
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 1953243136 (931.38 GiB 1000.06 GB)
Array Size : 976621568 (931.38 GiB 1000.06 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=0 sectors
State : clean
Device UUID : 32b2194e:4f740838:afcb3285:063e2791
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jun 21 08:18:35 2015
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : b6161e7e - correct
Events : 2272
Device Role : Active device 1
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
Code : Tout sélectionner
/dev/sdf1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 0917b94e:bfff601b:44ffb3ba:ed5eeea9
Name : Indien:101 (local to host Indien)
Creation Time : Sat Jun 20 12:14:56 2015
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
Array Size : 3906885632 (3725.90 GiB 4000.65 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=0 sectors
State : clean
Device UUID : 60adf350:c4ae8e1e:b518cd18:ca44e3af
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jun 21 08:18:35 2015
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : 990c9876 - correct
Events : 6142
Device Role : Active device 0
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
Code : Tout sélectionner
/dev/sdb1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 0917b94e:bfff601b:44ffb3ba:ed5eeea9
Name : Indien:101 (local to host Indien)
Creation Time : Sat Jun 20 12:14:56 2015
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
Array Size : 3906885632 (3725.90 GiB 4000.65 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=0 sectors
State : clean
Device UUID : 4e644c63:ffd06e63:5ad24710:a17f277f
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jun 21 08:18:35 2015
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : b704661c - correct
Events : 6142
Device Role : Active device 1
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
Code : Tout sélectionner
/dev/sde1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 0917b94e:bfff601b:44ffb3ba:ed5eeea9
Name : Indien:101 (local to host Indien)
Creation Time : Sat Jun 20 12:14:56 2015
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
Array Size : 3906885632 (3725.90 GiB 4000.65 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=0 sectors
State : clean
Device UUID : 3ae0fa4b:dda9b08c:c41d24e0:9b768b9e
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jun 21 08:12:44 2015
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : b834fbed - correct
Events : 6142
Device Role : spare
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
J'avoue, beaucoup de questions pour un seul post...
Juste une ou deux en sortie :
Dois-je effectuer la création des RAID1 depuis le début pas trop chaud. Juste au niveau du temps. Car heureusement, il n'y a aucune donnée dessus ?
Est-ce que ça pose problème de créer un RAID1 sous Archlinux, puis de le mettre ensuite sous Debian ? Je ne pense pas...
Merci pour les réponses.
Bon dimanche.