RAID6-2020: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
Zeile 53: | Zeile 53: | ||
== Logbuch == | == Logbuch == | ||
* 2020-11-29 "major" / "minor" Konzept | |||
* 2020-11-21 Installation beim Kunden | * 2020-11-21 Installation beim Kunden | ||
* 2020-11-06 | * 2020-11-06 |
Version vom 29. November 2020, 13:26 Uhr
- 5x 12TB Drive aus WD Elementes, Power-Cable: 3.3V einfach abgezwickt
- 1x Spare, 4x RAID6
- SSD 850 Pro mit 99 GB (sda4) als RAID-Journal
- ext4 Dateisystem mit 22 TB
- openSUSE 15.2
Hardware
- Fractal Define 7 weiß [135,42 €]
- Netzteil [45,00 €]
- Enermax Revolution Teilmodular 87+
- Supermicro Inc. X11SCL-F [153,15 €]
- CPU Intel Xeon E-2124 - 3.3 GHz - 4 Kerne - 4 Threads - 8 MB Cache-Speicher - LGA1151 Socket - Box [205,44 €]
- 32 GB Hauptspeicher Crosair cmk64gx4m4a2133c13, kein ECC [207,00 €]
- AHCI-Controller, asmedia 1061 PCIx 1x to 2x SATA Controller (20 €)
- Samsung 850 PRO, SSD [50,00 €]
- gebraucht aber neuwertig, geringes Schreibvolumen, neueste Firmware-Updates '11.2020
- sda4 ist Partition für das raid6 Journal
- RAID 6 HDDs [900,00 €] (5 = 4+1 Spare)
- [1]
WDC WD120EMFZ-11A6JA0 QGKG970T 81.00A81 (CMR)
- [2]
WDC WD120EMFZ-11A6JA0 X1G0HP2L 81.00A81 (CMR)
- [3]
WDC WD120EMFZ-11A6JA0 Z2JX019T 81.00A81 (CMR)
- [4]
WDC WD120EDAZ-11F3RA0 5PH5124D 81.00A81 (CMR, kein default des SCT!)
- smartctl -l scterc,70,70 /dev/sde
- diese Platte ist etwas langsamer als die EMFZ
- [5]
WDC WD120EMFZ-11A6JA0 Z2J4ES6T 81.00A81 (CMR)
- [1]
- externe HDD (360,00 €) WD Elements 12 TB, wöchentlich wechselnd
WDC WD120EMFZ-11A6JA0 X0G75LEC 81.00A81 (CMR)
WDC WD120EMFZ-11A6JA0 9RKSKUJD 81.00A81 (CMR)
False Positiv Error Msg
- sync, umount, reboot ->
[Fri Nov 6 10:27:22 2020] md/raid:md127: recovering 0 data-only stripes and 1 data-parity stripes
https://github.com/torvalds/linux/blob/master/drivers/md/raid5-cache.c Line 2496 https://github.com/torvalds/linux/commit/b4c625c67362b3940f619c1a836b4e8329106658#diff-be24a83d195fa53b3da9c7257a0352e92dbe2318c725e0492986d425317d4e3d
- data_parity_stripes wird incrementiert, auch wenn er nichts arbeitet ist der Wert zumindest 1
Logbuch
- 2020-11-29 "major" / "minor" Konzept
- 2020-11-21 Installation beim Kunden
- 2020-11-06
- Erster Scrub erfolgreiche beendet, dauerte 21 Stunden
[Fri Nov 6 10:27:22 2020] md/raid:md127: recovering 0 data-only stripes and 1 data-parity stripes
- Das ist scheinbar normal, ich hab sync und unmount und reboot gemacht, bei 0 Fehler kommt dennoch diese Meldung
- Ich denke es ist ein Fehler in der md Software, mal sehen ob dies bleibt
- 2020-11-01 Zusammenbau und Dauertest