RAID6-2020: Unterschied zwischen den Versionen

Aus OrgaMon Wiki
Zur Navigation springen Zur Suche springen
Zeile 105: Zeile 105:
** Scrub erfolgreich durchgeführt
** Scrub erfolgreich durchgeführt
** CPU Temperaturen passen wieder
** CPU Temperaturen passen wieder
** IPMI von 01.23.04 auf 01.74.09

Version vom 17. August 2023, 10:49 Uhr


  • ehemals back42, nun backup
  • 5x 12TB Drive aus WD Elementes, Power-Cable: 3.3V einfach abgezwickt
  • 1x Spare, 4x RAID6
  • SSD 850 Pro mit 99 GB (sda4) als RAID-Journal
  • RAID 6, ext4 Dateisystem mit 22 TB
  • openSUSE 15.5

Hardware

Funktionen

Major/Minor Sicherungen

#!/bin/bash

#
# minor, wöchentlich anderes Verzeichnis
#
ANZAHL_BAENDER=3
BAND=$((10#$(date +%V)%$ANZAHL_BAENDER))
OPTIONS="-avK --delete --force --ignore-errors --copy-unsafe-links"

DEST=/srv/smb/ra6/minor/$BAND
echo $DEST
mkdir $DEST
chmod 777 $DEST
rsync $OPTIONS 192.168.178.110::minor/ $DEST
touch $DEST

#
# major, täglich anderes Verzeichnis
#
ANZAHL_BAENDER=10
BAND=$((($(date +%s)/86400)%$ANZAHL_BAENDER))
OPTIONS="-avK --delete --force --ignore-errors --copy-unsafe-links"

DEST=/srv/smb/ra6/major/$BAND
echo $DEST
mkdir $DEST
chmod 777 $DEST
rsync $OPTIONS 192.168.178.110::major/ $DEST
touch $DEST
  • Zeile 10#$(date +%V) muss gemacht werden. "10#" ergänzt den Rückgabewert 08, dieser würde sonst als oktale Ziffernfolge ausgewertet, so aber 10#08 wird es als dezimal 8 interprätiert

raid

      0       8       17        0      active sync   /dev/sdb1 Z2JX019T
      1       8       81        1      active sync   /dev/sdf1 X1G0HP2L
      2       8       65        2      active sync   /dev/sde1 QGKG970T
      3       8       33        3      active sync   /dev/sdc1 5PH5124D
      4       8       49        -      spare   /dev/sdd1 Z2J4ES6T
      5       8        4        -      journal   /dev/sda4 H217925W

Logbuch

  • 2020-11-29 "major" / "minor" Konzept
  • 2020-11-21 Installation beim Kunden
  • 2020-11-06
    • Erster Scrub erfolgreiche beendet, dauerte 21 Stunden
    • [Fri Nov 6 10:27:22 2020] md/raid:md127: recovering 0 data-only stripes and 1 data-parity stripes
      • Das ist scheinbar normal, ich hab sync und unmount und reboot gemacht, bei 0 Fehler kommt dennoch diese Meldung
      • Ich denke es ist ein Fehler in der md Software, mal sehen ob dies bleibt
  • 2020-11-01 Zusammenbau und Dauertest
  • 2021-02-20 Fehler wegen 08 - Backup-Script korrigiert
  • 2023-08-08 CPU überhitzt, Lüftergeräusche, Gerät kommt in Wartung
  • 2023-08-16 CPU Lüfter hin lose am Board, kein Kontakt mehr zur CPU Oberfläche
    • CPU Cooler montiert, mit Klebstoff gegen erneutes Ablösen gesichert
    • BIOS Update auf 2.0
    • Update auf 15.5 misslungen
    • HP NVME nachgerüstet OpenSuSE 15.5 installiert
    • "Autostart" des MD-Arrays war nicht möglich, muss mit neuer Systemd-Unit "md0.service" nachhelfen
    • Scrub erfolgreich durchgeführt
    • CPU Temperaturen passen wieder
    • IPMI von 01.23.04 auf 01.74.09