RAID6-2020: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
Root (Diskussion | Beiträge) |
|||
Zeile 28: | Zeile 28: | ||
** https://www.cyberport.de/?DEEP=2409-08X&APID=276&gclid=EAIaIQobChMIi_Ss-oza7AIVEbTVCh3P-wmcEAQYAiABEgJYBPD_BwE | ** https://www.cyberport.de/?DEEP=2409-08X&APID=276&gclid=EAIaIQobChMIi_Ss-oza7AIVEbTVCh3P-wmcEAQYAiABEgJYBPD_BwE | ||
* AHCI-Controller, asmedia 1061 PCIx 1x to 2x SATA Controller (20 €) | |||
** https://www.amazon.de/gp/product/B07V5MXVNW/ref=ppx_yo_dt_b_asin_title_o02_s00?ie=UTF8&psc=1 | |||
* Samsung 850 PRO, SSD [50,00 €] | * Samsung 850 PRO, SSD [50,00 €] |
Version vom 12. November 2020, 17:23 Uhr
- 5x 12TB Drive aus WD Elementes, Power-Cable: 3.3V einfach abgezwickt
- 1x Spare, 4x RAID6
- SSD 850 Pro mit 99 GB (sda4) als RAID-Journal
- ext4 Dateisystem mit 22 TB
- openSUSE 15.2
Hardware
- Fractal Define 7 weiß [135,42 €]
- Supermicro Inc. X11SCL-F [153,15 €]
- CPU Intel Xeon E-2124 - 3.3 GHz - 4 Kerne - 4 Threads - 8 MB Cache-Speicher - LGA1151 Socket - Box [205,44 €]
- 32 GB Hauptspeicher Crosair cmk64gx4m4a2133c13, kein ECC [207,00 €]
- AHCI-Controller, asmedia 1061 PCIx 1x to 2x SATA Controller (20 €)
- Samsung 850 PRO, SSD [50,00 €]
- gebraucht aber neuwertig, geringes Schreibvolumen
- Netzteil [45,00 €]
- Enermax Revolution Teilmodular 87+
- HDD [900,00 €]
WDC WD120EMFZ-11A6JA0 QGKG970T 81.00A81 (CMR)
WDC WD120EMFZ-11A6JA0 X1G0HP2L 81.00A81 (CMR)
WDC WD120EMFZ-11A6JA0 Z2JX019T 81.00A81 (CMR)
WDC WD120EDAZ-11F3RA0 5PH5124D 81.00A81 (CMR, kein default des SCT!)
- smartctl -l scterc,70,70 /dev/sde
- diese Platte ist etwas langsamer als die EMFZ
WDC WD120EMFZ-11A6JA0 Z2J4ES6T 81.00A81 (CMR)
- HDD (360,00 €)
WDC WD120EMFZ-11A6JA0 X0G75LEC 81.00A81 (CMR)
WDC WD120EMFZ-11A6JA0 9RKSKUJD 81.00A81 (CMR)
- Kleinteile
False Positiv Error Msg
- sync, umount, reboot ->
[Fri Nov 6 10:27:22 2020] md/raid:md127: recovering 0 data-only stripes and 1 data-parity stripes
https://github.com/torvalds/linux/blob/master/drivers/md/raid5-cache.c Line 2496 https://github.com/torvalds/linux/commit/b4c625c67362b3940f619c1a836b4e8329106658#diff-be24a83d195fa53b3da9c7257a0352e92dbe2318c725e0492986d425317d4e3d
- data_parity_stripes wird incrementiert, auch wenn er nichts arbeitet ist der Wert zumindest 1
Logbuch
- 2020-11-06
- Erster Scrub erfolgreiche beendet, dauerte 21 Stunden
[Fri Nov 6 10:27:22 2020] md/raid:md127: recovering 0 data-only stripes and 1 data-parity stripes
- Das ist scheinbar normal, ich hab sync und unmount und reboot gemacht, bei 0 Fehler kommt dennoch diese Meldung
- Ich denke es ist ein Fehler in der md Software, mal sehen ob dies bleibt
- 2020-11-01 Zusammenbau und Dauertest