RAID6-2017: Unterschied zwischen den Versionen

Aus OrgaMon Wiki
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
 
(87 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
* host "server"
* host raib2, ehemals "raib23", "server"
* Raid-6 aus 4x 2 TB Platten und 1x 3 TB Platte
* Supermicro X10SLH-F, Socket 1150
 
** BIOS 3.3a, BMC 03.90
== RAID-Platten ==
* 32 GB ECC RAM
 
* XEON 1231v3 4x 3.40GHz, 8 Threads (defekt, nur noch 2 Cores)
1 ; 2        ; 3     ; 4  ; 5                ; 6
** 54406.95 BogoMIPS
0 ; /dev/sdd1 ; 01.1-7 ; 2TB ; ST2000VX004-1RU1 ; Z4Z1NATB
* Raid-6 aus 5+1 2TB Partitionen (1953382400 Bytes)
1 ; /dev/sde1 ; 01.1-9 ; 2TB ; WD20EFRX-68E    ; WD-WCC4M1ZJ8ZKZ
* Partition ist 2000397868544 Bytes
2 ; /dev/sdb1 ; 17.0-4 ; 2TB ; ST2000VX004-1RU1 ; Z4Z1NB4W
* Dateisystem: ext4 (ACHTUNG: ohne 64 Bit!)
3 ; /dev/sda1 ; 17.0-3 ; 2TB ; WD20EFRX-68E    ; WD-WCC4M5ZDK1AE
** Maximaler Vollausbau (da 32 Bit-ext4): 7x 3 TB im RAID 6 (-> 15 TB)
4 ; /dev/sdc1 ; 17.0-5 ; 3TB ; TOSHIBA DT01ACA3 ; 554468NGS
 
 
1 = RaidDevice
2 = Linux Partition Name
3 = SATA Connector
4 = Capacity
5 = Model
6 = Serial
 
== Unused-Platten ==
 
TOSHIBA DT01ACA3  5544688GS        (A3) sdd
 
== Details ==
 
=== Dateisystem ===
 
* ext4 (ohne 64 Bit!)
 
=== Historie ===
 
# Erstellt am "Wed Jan 28 22:47:57 2015"
# 4x 512 GByte im RAID 6 migriert auf
# 4x 2 TB im RAID 6 (-> 4 TB) migriert auf
# 5x 2 TB im RAID 6 (-> 6 TB)
# 2+2+3+2+2 HDD ca. 2 Jahre alt (die 2er Platten, die 3er 1,5 Jahre)
# Maximaler Vollausbau (da 32 Bit-ext4):
# 7x 3 TB im RAID 6 (-> 15 TB)
 
== Festplatten-Positionen ==
 
[[Datei:Server-front.jpg|150px]]
 
* A1|A2|A3|A4|B1|B2|B3|B4 (Bay-Bezeichnungen von Links nach Rechts)
 
      Kabel serial          /dev/disk/by-id/                            RAID-Rolle device
A1 1 rot  WD-WCC4M1ZJ8ZKZ  "ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M1ZJ8ZKZ"  1          sdg
A2 2 rot  Z4Z1NATB        "ata-ST2000VX004-1RU164_Z4Z1NATB"            0          sde
A3 3 gelb  5544688GS        "ata-TOSHIBA_DT01ACA300_5544688GS"          <b>Spare</b>      sdd
A4 4 rot  554468NGS        "ata-TOSHIBA_DT01ACA300_554468NGS"          4          sdc
B1 5 rot  Z4Z1NB4W        "ata-ST2000VX004-1RU164_Z4Z1NB4W"            2          sdb
B2 6 gelb  WD-WCC4M0XEZ7CH  "ata-WDC_WD20PURX-64P6ZY0_WD-WCC4M0XEZ7CH"  <b>Spare</b>      sdf
B3 7 rot  WD-WCC4M5ZDK1AE  "ata-WDC_WD20EFRX-68EUZN0_WD-WCC4M5ZDK1AE"  3          sda
B4 8 rot  -- leer --
 
{|
|[[Datei:A1.jpg|65px]]<br><h4>A1</h4><br>
|[[Datei:A2.jpg|65px]]<br><h4>A2</h4><br>
|[[Datei:A3.jpg|65px]]<br><h4><b>A3</b></h4><br>
|[[Datei:A4.jpg|65px]]<br><h4>A4</h4><br>
|[[Datei:B1.jpg|65px]]<br><h4>B1</h4><br>
|[[Datei:B2.jpg|65px]]<br><h4><b>B2</b></h4><br>
|[[Datei:B3.jpg|65px]]<br><h4>B3</h4><br>
|[[Datei:B4.jpg|65px]]<br><h4>B4</h4><br>
|-
|}
<br>
 
== Details ==
 
/dev/md127:
        Version : 1.2
  Creation Time : Wed Jan 28 22:47:57 2015
    Raid Level : raid6
    Array Size : 5860147200 (5588.67 GiB 6000.79 GB)
  Used Dev Size : 1953382400 (1862.89 GiB 2000.26 GB)
  Raid Devices : 5
  Total Devices : 7
    Persistence : Superblock is persistent
  Intent Bitmap : Internal
    Update Time : Tue Oct 16 13:08:39 2018
          State : clean
Active Devices : 5
Wrking Devices : 7
Failed Devices : 0
  Spare Devices : 2
        Layout : left-symmetric
    Chunk Size : 512K
          Name : raib23:0
          UUID : a9b9721a:7da8602e:313975c3:10fa337e
        Events : 13372
    Number  Major  Minor  RaidDevice State
      5      8      65        0      active sync  /dev/sde1
      6      8      97        1      active sync  /dev/sdg1
      4      8      17        2      active sync  /dev/sdb1
      7      8        1        3      active sync  /dev/sda1
      8      8      33        4      active sync  /dev/sdc1
      9      8      81        -      spare  /dev/sdf1
      10      8      49        -      spare  /dev/sdd1
 
== Ereignisse ==
 
=== 26.07.2019 Ausfall von "sde" ===
 
[9159727.049398] md/raid:md127: Disk failure on sde1, disabling device.
                  md/raid:md127: Operation continuing on 4 devices.
 
* AUTOMATISCH wurde "sdf" vom "spare" zum Verband hinzugefügt
 
[9159732.583652] md: recovery of RAID array md127
[9186393.380680] md: md127: recovery done.
[9186394.116871] RAID conf printout:
[9186394.116878]  --- level:6 rd:5 wd:5
[9186394.116881]  disk 0, o:1, dev:sdf1
[9186394.116884]  disk 1, o:1, dev:sdg1
[9186394.116886]  disk 2, o:1, dev:sdb1
[9186394.116888]  disk 3, o:1, dev:sda1
[9186394.116890]  disk 4, o:1, dev:sdc1
 
* nunmher bot sich folgendes Bild
 
    Number  Major  Minor  RaidDevice State
      9      8      81        0      active sync  /dev/sdf1
      6      8      97        1      active sync  /dev/sdg1
      4      8      17        2      active sync  /dev/sdb1
      7      8        1        3      active sync  /dev/sda1
      8      8      33        4      active sync  /dev/sdc1
      5      8      65        -      faulty  /dev/sde1
      10      8      49        -      spare  /dev/sdd1

Aktuelle Version vom 10. März 2023, 16:40 Uhr

  • host raib2, ehemals "raib23", "server"
  • Supermicro X10SLH-F, Socket 1150
    • BIOS 3.3a, BMC 03.90
  • 32 GB ECC RAM
  • XEON 1231v3 4x 3.40GHz, 8 Threads (defekt, nur noch 2 Cores)
    • 54406.95 BogoMIPS
  • Raid-6 aus 5+1 2TB Partitionen (1953382400 Bytes)
  • Partition ist 2000397868544 Bytes
  • Dateisystem: ext4 (ACHTUNG: ohne 64 Bit!)
    • Maximaler Vollausbau (da 32 Bit-ext4): 7x 3 TB im RAID 6 (-> 15 TB)