RAID6-2015: Unterschied zwischen den Versionen

Aus OrgaMon Wiki
Zur Navigation springen Zur Suche springen
Zeile 57: Zeile 57:
== Devices ==
== Devices ==


/dev/md127:
          Version : 1.2
        Version : 1.2
    Creation Time : Fri Nov 13 23:29:12 2015
  Creation Time : Fri Nov 13 23:29:12 2015
        Raid Level : raid6
    Raid Level : raid6
        Array Size : 3906521088 (3725.55 GiB 4000.28 GB)
    Array Size : 3906521088 (3725.55 GiB 4000.28 GB)
    Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
  Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
      Raid Devices : 6
  Raid Devices : 6
    Total Devices : 7
  Total Devices : 7
      Persistence : Superblock is persistent
    Persistence : Superblock is persistent
   
   
  Intent Bitmap : Internal
    Intent Bitmap : Internal
   
   
    Update Time : Wed Dec 11 12:01:08 2019
      Update Time : Fri Jan  3 10:42:50 2020
          State : clean
            State : clean
Active Devices : 6
    Active Devices : 6
Working Devices : 7
  Working Devices : 7
Failed Devices : 0
    Failed Devices : 0
  Spare Devices : 1
    Spare Devices : 1
   
   
        Layout : left-symmetric
            Layout : left-symmetric
    Chunk Size : 512K
        Chunk Size : 512K
   
   
Consistency Policy : bitmap
   
   
          Name : linux-9st1:0
              Name : linux-9st1:0
          UUID : 2ca7d214:9c6bfab4:b2ecf28b:72df44ca
              UUID : 2ca7d214:9c6bfab4:b2ecf28b:72df44ca
        Events : 42039
            Events : 43021
   
   
     RaidDevice State         Device    Serial          PowerOn[h]
     Number  Major  Minor  RaidDevice State
        0      active sync  /dev/sdd1 Z1N07LHT        54174
      8      8        1        0      active sync  /dev/sda1
        1      active sync  /dev/sdh1 WD-WCC4J3NCSLRE  33276
      1      8      17        1      active sync  /dev/sdb1
        2      active sync  /dev/sdf1 Z1N3WJ16        170
      9      8      33        2      active sync  /dev/sdc1
        3      active sync  /dev/sde1 WD-WCAW36643628  34536
      7      8      97        3      active sync  /dev/sdg1
        4      active sync  /dev/sdc1 WD-WCAW32644607  50592
      6      8      65        4      active sync  /dev/sde1
        5      active sync  /dev/sda1 WD-WCAW32647390 53847
      10      8      49        5      active sync  /dev/sdd1
        -      spare         /dev/sdb1 Z9CAEV9N        18
   
      11      8      81        -      spare   /dev/sdf1


== Log-Buch ==
== Log-Buch ==

Version vom 3. Januar 2020, 10:45 Uhr

4 TB nutzbare Kapazität, erstellt am Fri Nov 13 23:29:12 2015

6x 1 TB Platten
1x 1 TB Platte als Spare
1x Systemplatte 2,5" SSD

Layout

  • A1|A2|A3|A4|B1|B2|B3|B4 (Bay-Bezeichnungen von Links nach Rechts)
Eigenschaften/Bay A1 A2 A3 A4 B1 B2 B3 B4
Serial 32647390
Z9CAESQN
55890888
Z1N3WJ16
Z1N07LHT
WD-WCC4J1RLS9CR
S251NXAG732168N 36643628 32644607 Z1N4BWDK
Z9CAEV9N
3NCSLRE
Device sda sdf sdd sde sdc sdb sdh
RAID-Device 5 2 0 4 3 SPARE 1

Devices

          Version : 1.2
    Creation Time : Fri Nov 13 23:29:12 2015
       Raid Level : raid6
       Array Size : 3906521088 (3725.55 GiB 4000.28 GB)
    Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
     Raid Devices : 6
    Total Devices : 7
      Persistence : Superblock is persistent

    Intent Bitmap : Internal

      Update Time : Fri Jan  3 10:42:50 2020
            State : clean
   Active Devices : 6
  Working Devices : 7
   Failed Devices : 0
    Spare Devices : 1

           Layout : left-symmetric
       Chunk Size : 512K

Consistency Policy : bitmap

             Name : linux-9st1:0
             UUID : 2ca7d214:9c6bfab4:b2ecf28b:72df44ca
           Events : 43021

   Number   Major   Minor   RaidDevice State
      8       8        1        0      active sync   /dev/sda1
      1       8       17        1      active sync   /dev/sdb1
      9       8       33        2      active sync   /dev/sdc1
      7       8       97        3      active sync   /dev/sdg1
      6       8       65        4      active sync   /dev/sde1
     10       8       49        5      active sync   /dev/sdd1

     11       8       81        -      spare   /dev/sdf1

Log-Buch

14.02.2016 Produktiv
      2017 Ausfall einer Platte, Platte hinzugefügt
28.02.2018 defekte Platte ausgebaut, Spare Platte dazugemacht
01.03.2018 Vollständiger Lesecheck OK
05.09.2018 sdf fiel durch I/O Errors auf, durch das spare ersetzt
12.10.2018 sdf durch eine neue Platte ersetzt (nur Hardware)
16.10.2018 sdf ist nun spare
30.11.2019 Vollständiger Lesecheck, sdb fiel durch Lesefehler massiv auf, durch spare sdf ersetzt
           Betrieb ohne Spare, jedoch read-check 100% ok
03.12.2019 Besuch vor Ort, geklappere am Server, "sdf" wird vom raid6 rausgeworfen während ich da bin!
          "sdf" ist auf "Faulty", array ist degraded
04.12.2019 sdb - stromlos geschaltet
           "Z1N3WJ16" neu eingebaut, als "sdb" erkannt, als spare hinzugefügt->sofortiger resync, Erfolg!
            (1. Platte)
           sdf - Datenkabel abgezogen
           "Z1M626HH" neu eingebaut, als "sdf" erkannt, ABER: Fehler bei gdisk, lehne Platte ab
            (2. Platte) wird nicht mehr eingesetzt, ausgebucht!
           Beschaffung von 4 weiteren Platten
11.12.2019 A2,B3 ausgebaut, neues Netzteil
           A2 +"Z1N3WJ16" /sdf (Rolle "2")
           B3 +"Z9CAEV9N" /sdb (Rolle "Spare")
           data scrubbing
20.12.2019 -sdd [RD=0] Z1N07LHT mit 54413 Betriebsstunden, ersetzt durch spare sdb Z9CAEV9N
           +sdi WD-WCC4J1RLS9CR am SAS 1/P1 (neu)
           -sda [RD=5] WD-WCAW32647390 mit 54086 Betriebsstunden
           +sdj Z9CAESQN am SAS 1/P2 (neu)