Page 1 sur 1

[RAID] mdadm (RÉSOLU)

Publié : dim. 21 juin 2015, 12:05
par L_Indien
Bonjour Le Forum,

Actuellement (jusqu'à vendredi 19), voici la configuration RAID :
J'ai 4 HDD + 1 SSD + 1 HDD.
Sur les 4 HDD, 2 sont configurés en RAID0 (sur tout le disque), et 2 autres sont également en RAID0 (mais uniquement sur le début du disque).
Bien que cela puisse être bizarre, /etc/mdadm.conf est "vierge". La configuration des RAID0 n'y ai pas et ça fonctionne très bien... Le système et le SWAP sont sur le SSD. Quand au HDD, il est uniquement en stockage (pour la virtualisation)
Tout de suite pas trop d’intérêt, mais c'est juste pour info

Après vendredi 19
Je viens d'avoir 3 HDD (deux de 5To et un de 4To).
Je retire le HDD, puis mets les 3 HDD dans le pc
Je crée une table de partition (GPT) et une partition sur tout le disque (de 4To) avec le drapeau "RAID".
Sauvegarde de la table de partition de 4To :

Code : Tout sélectionner

# sfdisk -d /dev/4To > Table_4To.dmp
Puis, je mets la table de partition de 4To dans les disques de 5To :

Code : Tout sélectionner

# sfdisk -d /dev/5To < Table_4To.dmp
Pour la suite des DD de 5To, juste une création d'une partition jusqu'à la fin.
Comme ça, j'ai (logiquement) une partition identique (en taille) de 4To.
Grâce à ça, je vais pouvoir créer un RAID1 + 1 spare de 4To

Code : Tout sélectionner

# mdadm --create /dev/md101 --level=1 --raid-devices=2 /dev/sdb1 /dev/sdf1 --spare-disks=1 /dev/sde1
puis, un autre RAID1 sans spare de 1To

Code : Tout sélectionner

# mdadm --create /dev/md102 --level=1 --raid-devices=2 /dev/sdb2 /dev/sdf2
Un petit $ watch -n0,1 cat /proc/mdsat m'informe de l’avancement...

Code : Tout sélectionner

Personalities : [raid0] [raid1]
md102 : active raid1 sdb2[1] sdf2[0]
      976621568 blocks super 1.2 [2/2] [UU]
         resync=DELAYED
      bitmap: 8/8 pages [32KB], 65536KB chunk

md101 : active raid1 sde1[2] (S) sdb1[1] sdf1[0]
      3906885632 blocks super 1.2 [2/2] [UU]
      [=======>.............]  resync = 36.4% (1424994916/3906885632) finish=301.3min speed=137268K/sec
      bitmap: 20/30 pages [80KB], 65536KB chunk
           
md126 : active raid0 sdc1[1] sdd1[0]
      312576000 blocks super 1.2 512k chunks

md127 : active raid0 sdh1[0] sdg1[1]
      40927232 blocks super 1.2 512k chunks

unused devices: <none>
C'est long... Environ 8 heures pour synchroniser les deux RAID1. Je profite, pour filer l'info que la bitmap est interne au RAID (confirmé par # mdadm --detail /dev/md101)

Une fois la synchro effectuée (confirmation par un # mdadm --detail /dev/md101), je formate /dev/md101 puis éteins le PC (oui, il était tard... Mais je pense, première erreur)...

Je redémarre le pc (au p'tio matin), et là.......... c'est le drame....

Voici le retour de $ cat /proc/mdsat

Code : Tout sélectionner

Personalities : [raid0]
md124 : active raid0 sdc1[1] sdd1[0]
      312576000 blocks super 1.2 512k chunks

md125 : inactive sdf2[0] sdb2[1]
      1953243136 blocks super 1.2

md126 : inactive sdf1[0] sdb1[1] sde1[2](S)
      11720656896 blocks super 1.2

md127 : active raid0 sdh1[0] sdg1[1]
      40927232 blocks super 1.2 512k chunks

unused devices: <none>
Les p'tits noms des md ont été changés... Mais surtout, les deux RAID1 sont inactifs....
Donc, un petit # mdadm --detail --scan --verbose >> /etc/mdadm/mdadm.conf puis redémarrage... Mais, nan, le /proc/mdsat redonne le même résultat.

là, j'étais déjà un peu larguer du beuzio, mais là encore plus.... Car, comme dis plus haut, le mdadm était vierge avant... Alors, comment ce faisse que les deux RAID0 fonctionnent très bien sans les infos dans /etc/mdadm.conf. Un petit # whereis mdadm m'informe qu'il n'y a pas d'autre mdadm.conf :

Code : Tout sélectionner

mdadm: /usr/bin/mdadm /etc/mdadm.conf /usr/share/man/man8/mdadm.8.gz
Mais le principal n'est pas trop là...[/i]

J'ai également tenté plusieurs manips, avec mdadm pour assembler en manu sans réponse concluante...
Voici le retour de # mdadm --detail /dev/RAID1

Code : Tout sélectionner

/dev/md125:
        Version : 1.2
  Creation Time : Sat Jun 20 12:15:37 2015
     Raid Level : raid1
  Used Dev Size : 976621568 (931.38 GiB 1000.06 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Sun Jun 21 08:18:35 2015
          State : active, Not Started 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : Indien:102  (local to host Indien)
           UUID : 6c7e0d92:d2609bc3:8e6c02b5:99667237
         Events : 2272

    Number   Major   Minor   RaidDevice State
       0       8       82        0      active sync   /dev/sdf2
       1       8       18        1      active sync   /dev/sdb2

Code : Tout sélectionner

/dev/md126:
        Version : 1.2
  Creation Time : Sat Jun 20 12:14:56 2015
     Raid Level : raid1
  Used Dev Size : -1
   Raid Devices : 2
  Total Devices : 3
    Persistence : Superblock is persistent

    Update Time : Sun Jun 21 08:18:35 2015
          State : active, Not Started 
 Active Devices : 2
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 1

           Name : Indien:101  (local to host Indien)
           UUID : 0917b94e:bfff601b:44ffb3ba:ed5eeea9
         Events : 6142

    Number   Major   Minor   RaidDevice State
       0       8       81        0      active sync   /dev/sdf1
       1       8       17        1      active sync   /dev/sdb1

       2       8       65        -      spare   /dev/sde1
Où sont les bitmap, et pourquoi la taille du RAID1 de 4To (2+1 spare) de -1 ?
Un petit # mdadm --run /dev/md125 ne fait rien...

Mais bon, il faut voir certains bons côtés. Voici quelques infos en plus (il n'y en a pas assez....):
# blkid (j'ai un peu nettoyé...)

Code : Tout sélectionner

/dev/sdc1: UUID="2462ed6f-b234-cc39-1567-b1e2794d1c40" UUID_SUB="83719f26-d279-2251-3669-93cbac9863b7" LABEL="'localhost.localdomain':0" TYPE="linux_raid_member" PARTUUID="88b20b70-2092-4f49-902d-eb6025be2877"
/dev/sdb1: UUID="0917b94e-bfff-601b-44ff-b3baed5eeea9" UUID_SUB="4e644c63-ffd0-6e63-5ad2-4710a17f277f" LABEL="Indien:101" TYPE="linux_raid_member" PARTUUID="f8d36866-c242-4381-830b-716ec246ed56"
/dev/sdb2: UUID="6c7e0d92-d260-9bc3-8e6c-02b599667237" UUID_SUB="32b2194e-4f74-0838-afcb-3285063e2791" LABEL="Indien:102" TYPE="linux_raid_member" PARTUUID="ffc5741a-0b12-4704-8b2b-b3c1e1afebd8"
/dev/sdd1: UUID="2462ed6f-b234-cc39-1567-b1e2794d1c40" UUID_SUB="7c6588be-bdcc-1a85-750d-1a3847b0c10b" LABEL="'localhost.localdomain':0" TYPE="linux_raid_member" PARTUUID="be597410-bab9-4993-9c5d-92664835cf89"
/dev/sde1: UUID="0917b94e-bfff-601b-44ff-b3baed5eeea9" UUID_SUB="3ae0fa4b-dda9-b08c-c41d-24e09b768b9e" LABEL="Indien:101" TYPE="linux_raid_member" PARTUUID="f8d36866-c242-4381-830b-716ec246ed56"
/dev/sdg1: UUID="59bb605a-7861-3482-b43a-1bcb59de2051" UUID_SUB="6da65262-c154-f956-80c1-fdc78e70efe6" LABEL="'localhost.localdomain':129" TYPE="linux_raid_member" PARTUUID="5048007c-df47-4480-b924-e55b91f23d7a"
/dev/sdf1: UUID="0917b94e-bfff-601b-44ff-b3baed5eeea9" UUID_SUB="60adf350-c4ae-8e1e-b518-cd18ca44e3af" LABEL="Indien:101" TYPE="linux_raid_member" PARTUUID="f8d36866-c242-4381-830b-716ec246ed56"
/dev/sdf2: UUID="6c7e0d92-d260-9bc3-8e6c-02b599667237" UUID_SUB="a9ab0e8d-2681-f37f-c133-d73635070386" LABEL="Indien:102" TYPE="linux_raid_member" PARTUUID="ffc5741a-0b12-4704-8b2b-b3c1e1afebd8"
/dev/sdh1: UUID="59bb605a-7861-3482-b43a-1bcb59de2051" UUID_SUB="3f0619cd-35a2-a0d4-510d-de97dcfca4d0" LABEL="'localhost.localdomain':129" TYPE="linux_raid_member" PARTUUID="d17ca7c5-5ea8-443c-ac41-3d7a84fb0d5c"
/dev/md127: LABEL="RAPTOR__RAID0" UUID="f4c43173-da62-42ab-b1ad-212230bc8278" TYPE="ext4"
/dev/md124: LABEL="AUTOPANO__RAID0" UUID="900df14e-be05-4d8d-8414-e55404c72173" TYPE="ext4"
Les partitions sont bien détectées en volume RAID. C'est également confirmé par gparted.

mdadm --examine /dev/du_RAID1_en_Question
Pour le RAID1 de 1To (2 /dev)

Code : Tout sélectionner

/dev/sdf2:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 6c7e0d92:d2609bc3:8e6c02b5:99667237
           Name : Indien:102  (local to host Indien)
  Creation Time : Sat Jun 20 12:15:37 2015
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 1953243136 (931.38 GiB 1000.06 GB)
     Array Size : 976621568 (931.38 GiB 1000.06 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=0 sectors
          State : clean
    Device UUID : a9ab0e8d:2681f37f:c133d736:35070386

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun Jun 21 08:18:35 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : e376560c - correct
         Events : 2272


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

Code : Tout sélectionner

/dev/sdb2:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 6c7e0d92:d2609bc3:8e6c02b5:99667237
           Name : Indien:102  (local to host Indien)
  Creation Time : Sat Jun 20 12:15:37 2015
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 1953243136 (931.38 GiB 1000.06 GB)
     Array Size : 976621568 (931.38 GiB 1000.06 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=0 sectors
          State : clean
    Device UUID : 32b2194e:4f740838:afcb3285:063e2791

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun Jun 21 08:18:35 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b6161e7e - correct
         Events : 2272


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
Pour le RAID1 de 4To (2 /dev + 1 spare)

Code : Tout sélectionner

/dev/sdf1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 0917b94e:bfff601b:44ffb3ba:ed5eeea9
           Name : Indien:101  (local to host Indien)
  Creation Time : Sat Jun 20 12:14:56 2015
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
     Array Size : 3906885632 (3725.90 GiB 4000.65 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=0 sectors
          State : clean
    Device UUID : 60adf350:c4ae8e1e:b518cd18:ca44e3af

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun Jun 21 08:18:35 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 990c9876 - correct
         Events : 6142


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

Code : Tout sélectionner

/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 0917b94e:bfff601b:44ffb3ba:ed5eeea9
           Name : Indien:101  (local to host Indien)
  Creation Time : Sat Jun 20 12:14:56 2015
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
     Array Size : 3906885632 (3725.90 GiB 4000.65 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=0 sectors
          State : clean
    Device UUID : 4e644c63:ffd06e63:5ad24710:a17f277f

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun Jun 21 08:18:35 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b704661c - correct
         Events : 6142


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

Code : Tout sélectionner

/dev/sde1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 0917b94e:bfff601b:44ffb3ba:ed5eeea9
           Name : Indien:101  (local to host Indien)
  Creation Time : Sat Jun 20 12:14:56 2015
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
     Array Size : 3906885632 (3725.90 GiB 4000.65 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=0 sectors
          State : clean
    Device UUID : 3ae0fa4b:dda9b08c:c41d24e0:9b768b9e

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun Jun 21 08:12:44 2015
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b834fbed - correct
         Events : 6142


   Device Role : spare
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
Comment peut-il y avoir une bitmap 30 pages pour le RAID de 4To (lors de la création & synchronisation), alors que dans le détail il n'y en a que 8 ?

J'avoue, beaucoup de questions pour un seul post...

Juste une ou deux en sortie :
Dois-je effectuer la création des RAID1 depuis le début pas trop chaud. Juste au niveau du temps. Car heureusement, il n'y a aucune donnée dessus ?
Est-ce que ça pose problème de créer un RAID1 sous Archlinux, puis de le mettre ensuite sous Debian ? Je ne pense pas...

Merci pour les réponses.

Bon dimanche.

Re: [RAID] mdadm

Publié : dim. 21 juin 2015, 13:17
par Xorg
Quand tu as créé le fichier /etc/mdadm/mdadm.conf, il faut recréer tes initramfs.
Et tu peux éditer le fichier à la main si le nom des périphériques n'est pas correct (par exemple pour mettre /dev/md0 à la place de /dev/md1xx).

Re: [RAID] mdadm

Publié : dim. 21 juin 2015, 15:49
par L_Indien
Salut Xorg,

Merci pour le tuyau... :copain:

Ça à l'air de fonctionner correctement.

C'est juste au niveau de la création des initramfs... J'avoue, j'ai fait l'automatique : mkinitcpio -p linux. Comme le résultat ne changeait rien. J'ai fait l'automatique et les commandes manuelles mkinitcpio -g /boot/initramfs-linux.img ainsi que mkinitcpio -g /boot/initramfs-linux-fallback.img -S autodetect

Maintenant, ça va... ;-)

Cool...

Je passe le sujet en (RÉSOLU), mais je donnerai des nouvelles, dès que j'aurai mis la grappe sous Debian (sur le NAS).

Bon dimanche (et bonne fête de la musique ;-))