RAID6-2020: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
Zeile 100: | Zeile 100: | ||
* 2023-08-08 CPU überhitzt, Lüftergeräusche, Gerät kommt in Wartung | * 2023-08-08 CPU überhitzt, Lüftergeräusche, Gerät kommt in Wartung | ||
* 2023-08-16 CPU Lüfter hin lose am Board, kein Kontakt mehr zur CPU Oberfläche | * 2023-08-16 CPU Lüfter hin lose am Board, kein Kontakt mehr zur CPU Oberfläche | ||
** CPU Cooler montiert, mit Klebstoff gegen erneutes | ** CPU Cooler montiert, mit Klebstoff gegen erneutes Ablösen gesichert | ||
** Update auf 15.5 misslungen | ** Update auf 15.5 misslungen | ||
** HP NVME nachgerüstet OpenSuSE 15.5 installiert | ** HP NVME nachgerüstet OpenSuSE 15.5 installiert |
Version vom 17. August 2023, 10:19 Uhr
- ehemals back42, nun backup
- 5x 12TB Drive aus WD Elementes, Power-Cable: 3.3V einfach abgezwickt
- 1x Spare, 4x RAID6
- SSD 850 Pro mit 99 GB (sda4) als RAID-Journal
- HP EX900 M.2 120 GB Solid-State-Laufwerk, onboard, nvme
- RAID 6, ext4 Dateisystem mit 22 TB
- openSUSE 15.5
Hardware
- Fractal Define 7 weiß [135,42 €]
- Netzteil [45,00 €]
- Enermax Revolution Teilmodular 87+
- Supermicro Inc. X11SCL-F [153,15 €]
- CPU Intel Xeon E-2124 - 3.3 GHz - 4 Kerne - 4 Threads - 8 MB Cache-Speicher - LGA1151 Socket - Box [205,44 €]
- 32 GB Hauptspeicher Crosair cmk64gx4m4a2133c13, kein ECC [207,00 €]
- AHCI-Controller, asmedia 1061 PCIx 1x to 2x SATA Controller (20 €)
- Samsung 850 PRO, SSD [50,00 €]
- gebraucht aber neuwertig, geringes Schreibvolumen, neueste Firmware-Updates '11.2020
- sda4 ist Partition für das raid6 Journal
- RAID 6 HDDs [900,00 €] (5 = 4+1 Spare)
- [1]
WDC WD120EMFZ-11A6JA0 QGKG970T 81.00A81 (CMR)
- [2]
WDC WD120EMFZ-11A6JA0 X1G0HP2L 81.00A81 (CMR)
- [3]
WDC WD120EMFZ-11A6JA0 Z2JX019T 81.00A81 (CMR)
- [4]
WDC WD120EDAZ-11F3RA0 5PH5124D 81.00A81 (CMR, kein default des SCT!)
- smartctl -l scterc,70,70 /dev/sde
- diese Platte ist etwas langsamer als die EMFZ
- [5]
WDC WD120EMFZ-11A6JA0 Z2J4ES6T 81.00A81 (CMR)
- [1]
- externe HDD (360,00 €) WD Elements 12 TB, wöchentlich wechselnd
WDC WD120EMFZ-11A6JA0 X0G75LEC 81.00A81 (CMR)
WDC WD120EMFZ-11A6JA0 9RKSKUJD 81.00A81 (CMR)
Funktionen
Major/Minor Sicherungen
#!/bin/bash # # minor, wöchentlich anderes Verzeichnis # ANZAHL_BAENDER=3 BAND=$((10#$(date +%V)%$ANZAHL_BAENDER)) OPTIONS="-avK --delete --force --ignore-errors --copy-unsafe-links" DEST=/srv/smb/ra6/minor/$BAND echo $DEST mkdir $DEST chmod 777 $DEST rsync $OPTIONS 192.168.178.110::minor/ $DEST touch $DEST # # major, täglich anderes Verzeichnis # ANZAHL_BAENDER=10 BAND=$((($(date +%s)/86400)%$ANZAHL_BAENDER)) OPTIONS="-avK --delete --force --ignore-errors --copy-unsafe-links" DEST=/srv/smb/ra6/major/$BAND echo $DEST mkdir $DEST chmod 777 $DEST rsync $OPTIONS 192.168.178.110::major/ $DEST touch $DEST
- Zeile
10#$(date +%V)
muss gemacht werden. "10#" ergänzt den Rückgabewert 08, dieser würde sonst als oktale Ziffernfolge ausgewertet, so aber 10#08 wird es als dezimal 8 interprätiert
raid
0 8 17 0 active sync /dev/sdb1 Z2JX019T 1 8 81 1 active sync /dev/sdf1 X1G0HP2L 2 8 65 2 active sync /dev/sde1 QGKG970T 3 8 33 3 active sync /dev/sdc1 5PH5124D 4 8 49 - spare /dev/sdd1 Z2J4ES6T 5 8 4 - journal /dev/sda4 H217925W
Logbuch
- 2020-11-29 "major" / "minor" Konzept
- 2020-11-21 Installation beim Kunden
- 2020-11-06
- Erster Scrub erfolgreiche beendet, dauerte 21 Stunden
[Fri Nov 6 10:27:22 2020] md/raid:md127: recovering 0 data-only stripes and 1 data-parity stripes
- Das ist scheinbar normal, ich hab sync und unmount und reboot gemacht, bei 0 Fehler kommt dennoch diese Meldung
- Ich denke es ist ein Fehler in der md Software, mal sehen ob dies bleibt
- 2020-11-01 Zusammenbau und Dauertest
- 2021-02-20 Fehler wegen 08 - Backup-Script korrigiert
- 2023-08-08 CPU überhitzt, Lüftergeräusche, Gerät kommt in Wartung
- 2023-08-16 CPU Lüfter hin lose am Board, kein Kontakt mehr zur CPU Oberfläche
- CPU Cooler montiert, mit Klebstoff gegen erneutes Ablösen gesichert
- Update auf 15.5 misslungen
- HP NVME nachgerüstet OpenSuSE 15.5 installiert
- "Autostart" des MD-Arrays war nicht möglich, muss mit neuer Systemd-Unit "md0.service" nachhelfen
- Scrub erfolgreich durchgeführt
- CPU Temperaturen passen wieder