Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
linux:fichiers:raid [08/04/2019 16:39]
thierry [Dépannage de RAID]
linux:fichiers:raid [09/04/2019 19:40] (Version actuelle)
thierry
Ligne 1: Ligne 1:
-====== Raid ======+====== Raid Logiciel sur Linux avec MDADM======
 avec [[linux:​commandes:​mdadm]] avec [[linux:​commandes:​mdadm]]
  
Ligne 15: Ligne 15:
 </​code>​ </​code>​
 ===== Dépannage de RAID ===== ===== Dépannage de RAID =====
-info sur le raid : ''​cat /​proc/​mdstat''​+==== Commandes utiles ==== 
 +  * [[linux:​connaitre_no_serie_du_disque|]] (pour savoir a quel disque physique correspond rééllement ​le Device sda, par exemple) 
 +  * Lister les disques et partitions dispo : ''​ls /​dev/​sd*''​ 
 + 
 +==== Etat du systéme RAID ==== 
 + 
 +commande ​: ''​cat /​proc/​mdstat''​ 
 +Ci-dessous un Raid de 4 disques dont 2 ont "​disparus"​.
 <​code>​ <​code>​
-cat /​proc/​mdstat+thierry@c3po:/​$ ​cat /​proc/​mdstat
 Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] ​ Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] ​
 md0 : inactive sdb1[1] sdba[4] md0 : inactive sdb1[1] sdba[4]
Ligne 23: Ligne 30:
    
 unused devices: <​none></​code>​ unused devices: <​none></​code>​
 +Ci-dessous un Raid de 8 disques en bon état entrain de se Reshaper.
 +<​code>​
 +thierry@c3po:/​$ cat /​proc/​mdstat
 +Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
 +md0 : active raid6 sdh[5] sdb1[8] sdj[7] sdi[6] sde[2] sdd[1] sdc[0] sdf[4]
 +      9766917120 blocks super 1.2 level 6, 512k chunk, algorithm 2 [8/8] [UUUUUUUU]
 +      [==>​..................] ​ reshape = 13.6% (266904576/​1953383424) finish=831.9min speed=33784K/​sec
 +      bitmap: 2/15 pages [8KB], 65536KB chunk
 +      ​
 +unused devices: <​none>​
 +</​code>​
  
-Lister les disques et partitions dispo : ''​ls /dev/sd*''​+==== Détails d'un RAID ==== 
 +Informations sur un systéme RAID 
 + 
 +''mdadm --detail ​/dev/md0''​ 
 +<​code>​ 
 +thierry@c3po:/​$ sudo mdadm --detail /dev/md0 
 +/dev/md0: 
 +        Version : 1.2 
 +  Creation Time : Mon Oct 23 11:31:24 2017 
 +     Raid Level : raid6 
 +     Array Size : 9766917120 (9314.46 GiB 10001.32 GB) 
 +  Used Dev Size : 1953383424 (1862.89 GiB 2000.26 GB) 
 +   Raid Devices : 8 
 +  Total Devices : 8 
 +    Persistence : Superblock is persistent 
 + 
 +  Intent Bitmap : Internal 
 + 
 +    Update Time : Tue Apr  9 19:22:18 2019 
 +          State : active, reshaping 
 + ​Active Devices : 8 
 +Working Devices : 8 
 + ​Failed Devices : 0 
 +  Spare Devices : 0 
 + 
 +         ​Layout : left-symmetric 
 +     Chunk Size : 512K 
 + 
 + ​Reshape Status : 14% complete 
 +  Delta Devices : 1, (7->8) 
 + 
 +           Name : c3po:​0 ​ (local to host c3po) 
 +           UUID : 51f628b8:​93d7e2f2:​03ee5154:​bedf7587 
 +         ​Events : 73980 
 + 
 +    Number ​  ​Major ​  ​Minor ​  ​RaidDevice State 
 +       ​0 ​      ​8 ​      ​32 ​       0      active sync   /​dev/​sdc 
 +       ​1 ​      ​8 ​      ​48 ​       1      active sync   /​dev/​sdd 
 +       ​2 ​      ​8 ​      ​64 ​       2      active sync   /​dev/​sde 
 +       ​4 ​      ​8 ​      ​80 ​       3      active sync   /​dev/​sdf 
 +       ​7 ​      ​8 ​     144        4      active sync   /​dev/​sdj 
 +       ​6 ​      ​8 ​     128        5      active sync   /​dev/​sdi 
 +       ​5 ​      ​8 ​     112        6      active sync   /​dev/​sdh 
 +       ​8 ​      ​8 ​      ​17 ​       7      active sync   /​dev/​sdb1 
 +</​code>​ 
 + 
 +==== Examiner l'etat RAID d'un Device ou d'une partition ====
  
 Examiner un disque pour voir si il est en RAID ? Examiner un disque pour voir si il est en RAID ?
  
-''​mdadm --examine /dev/sda''​+''​mdadm --examine /dev/sdX''​ 
 +<​code>​ 
 +thierry@c3po:/​$ sudo mdadm --examine /dev/sdh 
 +/dev/sdh: 
 +          Magic : a92b4efc 
 +        Version : 1.2 
 +    Feature Map : 0x45 
 +     Array UUID : 51f628b8:​93d7e2f2:​03ee5154:​bedf7587 
 +           Name : c3po:​0 ​ (local to host c3po) 
 +  Creation Time : Mon Oct 23 11:31:24 2017 
 +     Raid Level : raid6 
 +   Raid Devices : 8
  
-Informations sur un systéme RAID+ Avail Dev Size : 3906772144 (1862.89 GiB 2000.27 GB) 
 +     Array Size : 11720300544 (11177.35 GiB 12001.59 GB) 
 +  Used Dev Size : 3906766848 (1862.89 GiB 2000.26 GB) 
 +    Data Offset : 257024 sectors 
 +     New Offset : 250880 sectors 
 +   Super Offset : 8 sectors 
 +          State : active 
 +    Device UUID : 839c33e6:​5fc0edba:​3e4cfee9:​bc6196c1
  
-''​mdadm ​--detail /​dev/​md0''​+Internal Bitmap : 8 sectors from superblock 
 +  Reshape pos'n : 1654840320 (1578.18 GiB 1694.56 GB) 
 +  Delta Devices : 1 (7->8)
  
 +    Update Time : Tue Apr  9 19:18:51 2019
 +  Bad Block Log : 512 entries available at offset 72 sectors
 +       ​Checksum : 3997beb9 - correct
 +         ​Events : 73961
 +
 +         ​Layout : left-symmetric
 +     Chunk Size : 512K
 +
 +   ​Device Role : Active device 6
 +   Array State : AAAAAAAA ('​A'​ == active, '​.'​ == missing, '​R'​ == replacing)
 +</​code>​
 +==== Stopper un systéme RAID ====
 <​code>​ <​code>​
 mdadm --stop /dev/md0 mdadm --stop /dev/md0
 +</​code>​
 +==== Autres commandes a documenter... ====
 +<​code>​
 mdadm --assemble --scan mdadm --assemble --scan
 </​code>​ </​code>​
 +