RAID6-2015: Unterschied zwischen den Versionen

Aus OrgaMon Wiki
Zur Navigation springen Zur Suche springen
Zeile 54: Zeile 54:
|2
|2
|0
|0
|-<br>SYSTEM
|--<br>SYSTEM
|4
|4
|3
|3

Version vom 11. Dezember 2019, 13:17 Uhr

4 TB nutzbare Kapazität

6x 1 TB Platten
1x 1 TB Platte als Spare
1x Systemplatte 2,5" SSD

Layout

[Tue Dec 10 19:52:56 2019]  disk 0, o:1, dev:sdd1
[Tue Dec 10 19:52:56 2019]  disk 1, o:1, dev:sdh1
[Tue Dec 10 19:52:56 2019]  disk 2, o:1, dev:sdf1
[Tue Dec 10 19:52:56 2019]  disk 3, o:1, dev:sde1
[Tue Dec 10 19:52:56 2019]  disk 4, o:1, dev:sdc1
[Tue Dec 10 19:52:56 2019]  disk 5, o:1, dev:sda1


  • A1|A2|A3|A4|B1|B2|B3|B4 (Bay-Bezeichnungen von Links nach Rechts)
Eigenschaften/Bay A1 A2 A3 A4 B1 B2 B3 B4
Serial 32647390 (55890888)
neu:Z1N3WJ16
Z1N07LHT * 36643628 32644607 (Z1N4BWDK)
neu:?
3NCSLRE
Devicename sdd sdb sdg sda sdc sde sd? sdh
RAID-Device 5 2 0
4 3 SPARE 1

Devices

/dev/md127:
       Version : 1.2
 Creation Time : Fri Nov 13 23:29:12 2015
    Raid Level : raid6
    Array Size : 3906521088 (3725.55 GiB 4000.28 GB)
 Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
  Raid Devices : 6
 Total Devices : 7
   Persistence : Superblock is persistent

 Intent Bitmap : Internal

   Update Time : Wed Dec 11 12:01:08 2019
         State : clean
Active Devices : 6
Working Devices : 7
Failed Devices : 0
 Spare Devices : 1

        Layout : left-symmetric
    Chunk Size : 512K


          Name : linux-9st1:0
          UUID : 2ca7d214:9c6bfab4:b2ecf28b:72df44ca
        Events : 42039

   Number   Major   Minor   RaidDevice State
      0       8       49        0      active sync   /dev/sdd1
      1       8      113        1      active sync   /dev/sdh1
      9       8       81        2      active sync   /dev/sdf1
      7       8       65        3      active sync   /dev/sde1
      6       8       33        4      active sync   /dev/sdc1
      5       8        1        5      active sync   /dev/sda1

      8       8       17        -      spare   /dev/sdb1

Log-Buch

14.02.2016 Produktiv
      2017 Ausfall einer Platte, Platte hinzugefügt
28.02.2018 defekte Platte ausgebaut, Spare Platte dazugemacht
01.03.2018 Vollständiger Lesecheck OK
05.09.2018 sdf fiel durch I/O Errors auf, durch das spare ersetzt
12.10.2018 sdf durch eine neue Platte ersetzt (nur Hardware)
16.10.2018 sdf ist nun spare
30.11.2019 Vollständiger Lesecheck, sdb fiel durch Lesefehler massiv auf, durch spare sdf ersetzt
           Betrieb ohne Spare, jedoch read-check 100% ok
03.12.2019 Besuch vor Ort, geklappere am Server, "sdf" wird vom raid6 rausgeworfen während ich da bin!
          "sdf" ist auf "Faulty", array ist degraded
04.12.2019 sdb - stromlos geschaltet
           "Z1N3WJ16" neu eingebaut, als "sdb" erkannt, als spare hinzugefügt->sofortiger resync, Erfolg!
            (1. Platte)
           sdf - Datenkabel abgezogen
           "Z1M626HH" neu eingebaut, als "sdf" erkannt, ABER: Fehler bei gdisk, lehne Platte ab
            (2. Platte) wird nicht mehr eingesetzt, ausgebucht!
           Beschaffung von 4 weiteren Platten
11.12.2019 A2,B3 ausgebaut, neues Netzteil
           A2 +"Z1N3WJ16" /sdf (Rolle "2")
           B3 +"Z9CAEV9N" /sdb (Rolle "Spare")