Unterstützung des Kanals

Hinweis: Der folgende Link ist ein Affiliate-Link.

Die Erstellung meiner Skripte und Videos ist mit einem erheblichen zeitlichen Aufwand verbunden – von der technischen Vorbereitung über intensive Recherche bis hin zu Tests, Aufnahmen und Nachbearbeitung. Alle Inhalte stelle ich dir dennoch vollständig kostenlos zur Verfügung.

Wenn du meine Arbeit unterstützen möchtest, kannst du das ganz einfach tun: Für deine Amazon-Bestellungen nutze gern meinen Partner-Link. Für dich ändert sich am Preis nichts – ich erhalte lediglich eine kleine Provision. Vielen Dank für deinen Support!

Jetzt über Amazon unterstützen

Proxmox Energie sparen: Von 100W auf 39W im Home Lab (Anleitung)

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Einleitung: Der Kampf gegen den Stromzähler

Kennst du das Gefühl, wenn du auf dein Strommessgerät schaust und dir kurz der Atem stockt? In meinem Fall standen da in Summe über 100 Watt. Dauerhaft. Für ein Home Lab, das zwar leistungsstark sein soll, aber nicht unnötig Energie verbrennen darf.

Mein Ziel war klar: Ich wollte runter von diesem hohen Verbrauch – und zwar drastisch. Das Ergebnis? Ich bin jetzt bei rund 40 Watt.

In diesem Beitrag zeige ich dir genau, wie ich das geschafft habe. Wir schauen uns an, wie wir die „Low Hanging Fruits“ ernten – also die Festplatten (HDDs), die wir schlafen legen, wenn sie nicht gebraucht werden. Außerdem zeige ich dir, wie ich meinen Backup-Server so automatisiere, dass er wirklich nur dann läuft, wenn ein Backup ansteht. Das Wichtigste dabei: Die Dinge, die ich hier zeige, lassen sich auch auf andere Systeme anwenden – du brauchst also nicht zwingend ein Ugreen NAS, um das hier nachzubauen

Lass uns direkt loslegen.


Mein Hardware-Setup: Die Basis

Bevor wir in die Konfiguration gehen, musst du verstehen, wie mein System aufgebaut ist. Das ist wichtig, um die Logik hinter den Skripten später zu verstehen.

Ich nutze aktuell zwei Systeme von Ugreen:

  1. Der Primary*: Ein Ugreen DXP 8800 Plus (8-Bay NAS). Hier läuft mein Hauptsystem mit Proxmox. Bestückt ist es mit 8 Festplatten.
Angebot
UGREEN NASync DXP8800 Plus 8-Bay NAS Server, Intel i5-1235U 10-Kern, 8GB DDR5, 128GB SSD, 2×10GbE, 2×M.2 NVMe, 8K HDMI, 2×Thunderbolt 4, Kompatibel mit Drittanbieter HDD/SSD (Diskless)
  • Zwei 10GbE-Netzwerkanschlüsse: Zwei 10GbE-Hochgeschwindigkeitsnetzwerkanschlüsse, die zu einer Bandbreite von 20 G zusammengefasst werden können, um Downloadgeschwindigkeiten von bis zu 2500 MB/s zu erreichen. Große Dateien lassen sich problemlos übertragen. Die Last zwischen den beiden Portverbindungen kann dynamisch angepasst und ausgeglichen werden, um die Übertragungseffizienz zu verbessern.
  • Beispiellose Verarbeitungsleistung: Mit einem Intel Core i5-Prozessor der 12. Generation mit 10 Kernen und 12 Threads wird die Verarbeitungsleistung im Vergleich zu früheren Prozessoren sprunghaft verbessert.
  • 8-Bay, 256 TB riesiger Datenspeicher: Ausgestattet mit acht SATA- und zwei M.2 NVMe-Laufwerkschächten verfügt das NASync DXP8800 Plus über eine maximale Speicherkapazität von bis zu 256 TB. Speichern Sie Tausende von HD-Filmen, Bildern und Dokumenten und machen Sie NASync zu einer Filmbibliothek, einem Fotoalbum und einem Dateispeicherplatz in einem.
  • Eine umfassende App: Anstatt einzelne Anwendungen für bestimmte Funktionen herunterzuladen, integriert die NAS-App diese Funktionen an einem Ort. Greifen Sie von einem praktischen Ort aus auf Speichermanager, Dateien, Fotos und mehr zu.
  • Professionelle Datensicherheit: Im Vergleich zu Cloud-Laufwerken ermöglicht NASync Benutzern, große Mengen persönlicher Daten auf vertrauenswürdigen lokalen Geräten zu speichern, wodurch Datenverlust und Überwachung weitestgehend verhindert werden. Datenübertragung und Konten können mit professioneller Verschlüsselung und Multi-Faktor-Authentifizierung vollständig geschützt werden.
  1. Der Secondary*: Ein Ugreen DXP 4800 Plus (4-Bay NAS). Dies dient als reines Backup-Ziel.
Angebot
UGREEN NASync DXP4800 Plus 4-Bay Desktop NAS, Intel Pentium Gold 8505 5-Core CPU, 8GB DDR5 RAM, 128G SSD, 1 * 10GbE, 1 * 2,5GbE, 2*M.2 NVMe-Steckplätze, 4K HDMI, Network Attached Storage (Diskless)
  • 12. Gen 5-Kern Intel Prozessor: Diese leistungsstarke CPU von Intel bietet ein außergewöhnlich flüssiges Erlebnis und sorgt für einen erheblichen Leistungszuwachs im Vergleich zu früheren Generationen.
  • Benutzerfreundliche App: Verwalte deinen Speicher und greife von all deinen Geräten auf deine Dateien zu, ganz einfach mit unserer maßgeschneiderten Software – und das alles ohne mehrere Tools oder komplizierte Drittanbieter-Software. Verfügbar für Android, iOS, Windows, Mac, Webbrowser und Smart-TVs.
  • 4 Bays und maximal 136TB: Die vier SATA-Bays unterstützen jeweils bis zu 30TB. Zusätzlich können zwei kompakte M.2 NVMe SSDs mit jeweils bis zu 8TB installiert werden (für SSD-Caching oder zusätzlichen schnellen Speicher). Bei vollständiger Ausnutzung aller Steckplätze beträgt die maximale Kapazität beeindruckende 136TB.
  • Blitzschnelle 10GbE- und 2.5GbE-Netzwerkanschlüsse: Der NASync DXP4800 Plus bietet Datenraten von bis zu beeindruckenden 1250 MB/s über zwei separate Anschlüsse. Ideal für alle, die eine schnelle und reibungslose Übertragung von 4K-Videos und großen Dateien benötigen.
  • Professionelle Datensicherheit: Mit sicherer Verschlüsselung sind Benutzerkonten und Daten vollständig geschützt.

Der Plan ist simpel: Daten werden zwischen dem Primary und dem Secondary synchronisiert. Aber – und das ist der Knackpunkt beim Thema Proxmox Energie sparen – der Secondary muss nicht 24/7 laufen. Er wird nur für das Backup benötigt. Auch auf dem Primary müssen nicht alle 8 Festplatten rund um die Uhr rotieren, wenn ich nur ein- oder zweimal am Tag darauf zugreife.

Als Festplatten setze ich übrigens sehr gerne die Enterprise Platten von Toshiba ein. Alles was wichtig ist, kommt auf diese Platten*. Die haben sich über Jahre als äußerst Robust erwiesen.

Für Backups greife ich gerne auf die WD-Red Plus Reihe zurück*

Angebot
WD Red Plus 8TB NAS Interne Festplatte 3,5 Zoll – 5640 U/Min, SATA 6 Gb/s, CMR, 256MB Cache
  • Für NAS mit NASware optimiert Die exklusive Western Digital NASware-Technologie optimiert die Festplattenparameter für Workloads von NAS-Systemen, um die Leistung und Zuverlässigkeit zu verbessern.
  • Für dauerhaften Betrieb entwickelt Ihr NAS-System läuft rund um die Uhr. Ein äußerst zuverlässiger Speicher ist daher unverzichtbar. WD Red Plus-Festplatten sind für Systeme im Dauerbetrieb ausgelegt und geben Anwendern die Gewissheit, dass sie zuverlässig auf ihre Daten zugreifen können.
  • Auf zuverlässige Kompatibilität getestet Western Digital arbeitet mit vielen verschiedenen Herstellern von NAS-Systemen zusammen, um umfassende Tests durchzuführen und die Kompatibilität mit den meisten NAS-Gehäusen sicherzustellen.
  • Für niedrigere Gesamtbetriebskosten optimiert WD Red Plus-Festplatten verbrauchen weniger Energie (als frühere Modelle) und laufen kühler, wodurch die Betriebskosten sinken und die Wärme in schwer zu kühlenden NAS-Gehäusen reduziert wird.
  • Weniger Strombedarf, starke Leistung Obwohl sie weniger Energie verbrauchen, verfügen die Festplatten über eine gewaltige Bandbreite, um die gemischten Leistungsanforderungen von NAS-Systemen mit mehreren Festplatten zu erfüllen.

Schritt 1: Die „Low Hanging Fruits“ – HDDs in den Spindown schicken

Der größte Stromfresser in einem NAS sind oft die mechanischen Festplatten. Wenn diese 24 Stunden am Tag, 7 Tage die Woche drehen, verbrauchen sie unnötig Energie und erzeugen Wärme.

Mein erster Ansatz war also: Wenn ich die Platten nicht brauche, sollen sie schlafen gehen (Spindown).

Szenario A: Festplatten in einer Unraid VM

Einen Teil meiner Festplatten (4 Stück) habe ich direkt an eine virtuelle Maschine (VM) mit Unraid durchgereicht. Hier ist das Stromsparen denkbar einfach.

Hier ist das Stromsparen denkbar einfach.

In Unraid gehst du einfach in die Datenträger Einstellungen und setzt die Ruhezustandsverzögerung (Spindown Delay). Ich habe hier 15 Minuten eingestellt. Sobald 15 Minuten lang kein Zugriff erfolgt, schalten sich die Platten ab.

Achte hierbei nur darauf, dass du den Wert höher stellst, wenn du z.B. häufiger auf das NAS System zugreifst. Jedes An / Ausschalten der Platten erzeugt einen Verschleiß. Wenn deine Platten quasi den gesamten Tag fast durchgängig benötigt werden, dann macht es keinen Sinn an dieser Stelle zu sparen. Nur, wenn die meiste Zeit des Tages tatsächlich keine Daten benötigt werden, solltest du das verwenden.

Wie du Unraid genau installierst und den Controller durchreichst, habe ich bereits in einem anderen Artikel behandelt.

Unraid unter Proxmox installieren – Mein komplettes HomeLab-Setup Schritt für Schritt

Szenario B: Festplatten direkt unter Proxmox (ZFS & Co.)

Jetzt wird es spannender. Die restlichen Platten hängen direkt an Proxmox und werden teilweise für den Proxmox Backup Server (PBS) genutzt. Hier funktioniert der einfache Spindown oft nicht von Haus aus, besonders wenn ZFS im Spiel ist, das die Platten gerne wach hält.

Die Lösung ist ein kleines Tool namens hd-idle.

Installation von hd-idle: Zuerst installieren wir das Tool direkt in der Proxmox-Shell (Konsole):

apt-get install hd-idle

Die richtige Konfiguration: Damit wir nicht versehentlich die falschen Platten schlafen legen (zum Beispiel die Systemplatte, was fatal wäre), müssen wir die Festplatten eindeutig identifizieren. Verlasse dich niemals auf Bezeichnungen wie sda oder sdb, da diese sich nach einem Neustart ändern können. Wir nutzen die eindeutige ID (Serial Number).

Führe folgenden Befehl aus, um deine Disks aufzulisten:

ls -l /dev/disk/by-id/

Kopiere dir die IDs der Festplatten, die du in den Ruhezustand schicken möchtest (z.B. ata-WDC_WD...).

Nun bearbeiten wir die Konfigurationsdatei von hd-idle. Du findest sie meistens unter /etc/default/hd-idle.

Wichtig sind zwei Dinge:

  1. Setze START_HD_IDLE=true.
  2. Trage deine Platten mit der gewünschten Zeit ein.

Ich empfehle hier einen Wert von 1800 Sekunden (30 Minuten), um die Hardware nicht durch ständiges An- und Ausschalten zu belasten.

# defaults file for hd-idle

# start hd-idle automatically?
START_HD_IDLE=true
HD_IDLE_OPTS="-i 0 \
-a /dev/disk/by-id/ata-WDC_WD40EFPX-68C6CN0_WD-WX12DC482U93 -i 60 \
-a /dev/disk/by-id/ata-WDC_WD40EFPX-68C6CN0_WD-WX22DC4LF10E -i 60 \
-a /dev/disk/by-id/ata-WDC_WD40EFPX-68C6CN0_WD-WX12DC4820ZZ -i 60 \
-a /dev/disk/by-id/ata-WDC_WD40EFPX-68C6CN0_WD-WX22DC4PV4D8 -i 60"

Danach den Dienst einfach neu starten:

systemctl restart hd-idle

Mit diesen Maßnahmen hast du den ersten großen Schritt getan, um mit Proxmox Energie sparen zur Realität zu machen.


Schritt 2: Den Backup-Server bändigen (Primary& Secondary Prinzip)

Jetzt kommen wir zum fortgeschrittenen Teil. Ich nutze den Proxmox Backup Server (PBS), um meine VMs und Container zu sichern. Das Problem: Wenn der PBS als VM auf dem Primary läuft und Zugriff auf den ZFS-Pool hat, hält er die Platten wach. Außerdem: Wozu soll der Secondary -Server (das Backup-Ziel) laufen, wenn gar kein Backup gemacht wird?

Meine Strategie: Ich verlagere die Backups in die Tageszeit, wenn meine PV-Anlage Strom liefert. Den Rest der Zeit sollen der Backup-Server (die VM) und der externe Secondary -Server ausgeschaltet sein.

Das bringt jedoch ein technisches Problem mit sich: Wenn ich die Backup-VM ausschalte oder den Secondary herunterfahre, meckert Proxmox. Der Storage ist nicht mehr erreichbar, und das System schreibt die Logs voll mit Fehlermeldungen („error fetching datatsores“). Das nennt man „Logspam“, und das wollen wir vermeiden.

Die Lösung sind zwei selbstgeschriebene Skripte:

  1. Ein Start-Skript, das alles sauber hochfährt und einbindet.
  2. Ein Stop-Skript, das alles sauber trennt und herunterfährt.

Das Start-Skript

Das Skript erledigt folgende Aufgaben vollautomatisch:

  1. Es sendet ein Wake-on-LAN (WOL) Paket an den Secondary-Server, um ihn zu starten.
  2. Es prüft, ob der Secondary per SSH erreichbar ist.
  3. Es aktiviert den Storage in Proxmox wieder (damit kein Fehler auftaucht).
  4. Es startet die lokale Proxmox Backup Server VM.

Damit das funktioniert, musst du sicherstellen, dass wakeonlan auf deinem Primary installiert ist und im BIOS des Secondary aktiviert wurde.

apt-get install wakeonlan

Das vollständige Skript kannst du dir hier kopieren und an deine IPs und MAC-Adressen, Storage Name und VM ID anpassen:

#!/bin/bash
set -euo pipefail

# --- Konfiguration ---
SLAVE_HOST="192.168.100.3"
SLAVE_MAC="6C:1F:F7:76:53:18"
STORAGE_NAME="PBS_DXP8800Plus"
VM_ID="102"

# KORRIGIERT: Port 8006 für Proxmox VE (PVE).
# Alternativ: Port 22 für SSH (startet oft schneller).
CHECK_PORT=22

log() {
    echo "[$(date '+%Y-%m-%d %H:%M:%S')] $*"
}

log "==== START: Slave-Proxmox Start-Workflow ===="

# 1) Slave per WOL wecken
log "Sende Wake-on-LAN an ${SLAVE_MAC}"
if command -v wakeonlan &> /dev/null; then
    wakeonlan "${SLAVE_MAC}" > /dev/null
else
    log "FEHLER: 'wakeonlan' Befehl nicht gefunden! Bitte installieren (apt install wakeonlan)."
    exit 1
fi

# 2) Auf Erreichbarkeit warten (Ping + Service Check)
log "Warte auf ${SLAVE_HOST} (Max. 5 Minuten)..."
HOST_UP=false

for i in {1..60}; do # 60 Versuche a 5 Sekunden = 5 Minuten
    if ping -c1 -W1 "${SLAVE_HOST}" >/dev/null 2>&1; then

        # ZUSATZ: Port-Check (Dienste wirklich da?)
        if [ -n "$CHECK_PORT" ]; then
             # Versuche, den Port zu erreichen (timeout 2s reicht hier)
             if timeout 2 bash -c "</dev/tcp/${SLAVE_HOST}/${CHECK_PORT}" 2>/dev/null; then
                 log "Host ${SLAVE_HOST} ist pingbar UND Port $CHECK_PORT ist offen."
                 HOST_UP=true
                 break
             else
                 log "Ping OK, aber Port $CHECK_PORT noch nicht erreichbar. Warte..."
             fi
        else
            # Fallback ohne Port-Check
            log "Host pingbar. Warte pauschal 15s auf Dienste..."
            sleep 15
            HOST_UP=true
            break
        fi
    fi
    sleep 5
done

# ABBRUCH, wenn Host nicht kam
if [ "$HOST_UP" = false ]; then
    log "FEHLER: Slave-Host ${SLAVE_HOST} (Port $CHECK_PORT) ist nicht hochgefahren. Abbruch!"
    exit 1
fi

# 3) PBS-Storage aktivieren
# Prüfen, ob Storage schon aktiv ist
if ! /usr/sbin/pvesm status | grep -q "^${STORAGE_NAME}.*active"; then
    log "Aktiviere Storage ${STORAGE_NAME}..."
    /usr/sbin/pvesm set "${STORAGE_NAME}" --disable 0
else
    log "Storage ${STORAGE_NAME} ist bereits aktiv."
fi

# Kurze Pause für den Storage-Mount
sleep 2

# 4) VM starten (nur wenn sie nicht schon läuft)
VM_STATUS=$(/usr/sbin/qm status "${VM_ID}")
if [[ "$VM_STATUS" == *"status: stopped"* ]]; then
    log "Starte VM ${VM_ID}..."
    /usr/sbin/qm start "${VM_ID}"
    log "VM ${VM_ID} Startbefehl gesendet."
else
    log "INFO: VM ${VM_ID} läuft bereits oder Status ist unklar ($VM_STATUS)."
fi

log "==== ENDE: Slave-Proxmox Start-Workflow ===="

Erstelle dir ein Verzeichnis

mkdir /root/automation
nano proxmox-slave-start.sh

Kopiere den Inhalt aus dem Code Block und passe deine Daten an ( IP, Storage, VMID etc.. ) .

Speichere danach die Datei Strg+X und mach sie ausführbar.

chmod +x /root/automation proxmox-slave-start.sh

Dieser Vorgang muss mit dem Stop -Script genauso wiederholt werden. Achtet darauf, dass der Dateiname dann „proxmox-slave-stop.sh“ ist.

Das Stop-Skript

Am Nachmittag, wenn die Sonne weggeht, wollen wir wieder Strom sparen. Das Stop-Skript macht genau das Gegenteil:

  1. Es fährt die lokale Backup-VM herunter.
  2. Es deaktiviert den Storage in Proxmox (verhindert Logspam!).
  3. Es sendet per SSH den Befehl poweroff an den Secondary-Server.

Auch hier müsst ihr wieder eure Daten eintragen ( IP, Storage Name, VM_ID )

  GNU nano 8.4                                                                                                                                                                      proxmox-slave-stop.sh
#!/bin/bash
set -euo pipefail

# Konfiguration
SLAVE_HOST="192.168.100.3"
STORAGE_NAME="PBS_DXP8800Plus"
VM_ID="102"
MAX_WAIT_CYCLES=18  # 18 * 10s = 3 Minuten

log() {
    echo "[$(date '+%Y-%m-%d %H:%M:%S')] $*"
}

log "==== START: Slave-Proxmox Stop-Workflow ===="

# 1) Status prüfen & VM herunterfahren
VM_STATUS=$(/usr/sbin/qm status "${VM_ID}" | awk '{print $2}')

if [[ "${VM_STATUS}" == "running" ]]; then
    log "VM ${VM_ID} läuft. Sende Shutdown-Signal (ACPI)..."
    /usr/sbin/qm shutdown "${VM_ID}" || log "WARNUNG: qm shutdown ${VM_ID} meldete Fehler (evtl. ignoriert)."

    # Wartensschleife
    log "Warte auf Stop der VM ${VM_ID} (Max. 3 Min)..."
    VM_STOPPED=false

    for ((i=1; i<=MAX_WAIT_CYCLES; i++)); do
        CURRENT_STATUS=$(/usr/sbin/qm status "${VM_ID}" | awk '{print $2}')

        if [[ "${CURRENT_STATUS}" == "stopped" ]]; then
            log "Erfolg: VM ${VM_ID} ist gestoppt."
            VM_STOPPED=true
            break
        fi

        # Letzter Versuch: Harter Kill
        if [[ $i -eq $MAX_WAIT_CYCLES ]]; then
            log "TIMEOUT: VM reagiert nicht auf Shutdown. Versuche harten 'qm stop'..."
            /usr/sbin/qm stop "${VM_ID}" || true
            sleep 5 # Kurz warten, damit Proxmox aufräumen kann
        else
            sleep 10
        fi
    done

    # Finaler Check nach Loop
    if [[ "$VM_STOPPED" == "false" ]]; then
         # Checken ob der Hard-Kill oben geklappt hat
         FINAL_STATUS=$(/usr/sbin/qm status "${VM_ID}" | awk '{print $2}')
         if [[ "${FINAL_STATUS}" == "stopped" ]]; then
            log "VM wurde durch harten Stop beendet."
         else
            log "FEHLER: VM ${VM_ID} konnte nicht gestoppt werden! Status: ${FINAL_STATUS}"
            # Wir machen trotzdem weiter, damit der Storage disabled wird!
         fi
    fi

elif [[ "${VM_STATUS}" == "stopped" ]]; then
    log "Info: VM ${VM_ID} ist bereits gestoppt. Keine Aktion nötig."
else
    log "WARNUNG: Unbekannter Status der VM ${VM_ID}: ${VM_STATUS}"
fi

# 3) PBS-Storage deaktivieren (Kritischer Schritt für Host-Performance)
# Wir prüfen vorher kurz, ob er überhaupt aktiv ist, um unnötige Log-Einträge zu meiden,
log "Deaktiviere Storage ${STORAGE_NAME}..."
if /usr/sbin/pvesm set "${STORAGE_NAME}" --disable 1; then
    log "Storage ${STORAGE_NAME} erfolgreich deaktiviert."
else
    log "WARNUNG: Fehler beim Deaktivieren von ${STORAGE_NAME}!"
fi

# 4) Slave-Host herunterfahren
log "Sende Shutdown an Slave-Host ${SLAVE_HOST}..."
# ConnectTimeout verhindert langes Hängen, falls Slave schon weg ist
if ssh -o StrictHostKeyChecking=no -o ConnectTimeout=5 root@"${SLAVE_HOST}" "shutdown -h now" 2>/dev/null; then
    log "Shutdown-Befehl erfolgreich gesendet."
else
    log "HINWEIS: Konnte Shutdown nicht senden (Slave evtl. schon offline oder Netzwerkfehler)."
fi

# 5) Ping-Check (Optional, nur zur Bestätigung)
log "Warte auf Offline-Status des Slaves..."
HOST_IS_DOWN=false
for i in {1..12}; do # 2 Minuten warten
    if ! ping -c1 -W1 "${SLAVE_HOST}" >/dev/null 2>&1; then
        log "Slave-Host ${SLAVE_HOST} ist nun offline."
        HOST_IS_DOWN=true
        break
    fi
    sleep 10
done

if [[ "$HOST_IS_DOWN" == "false" ]]; then
    log "HINWEIS: Slave-Host antwortet noch immer auf Ping (evtl. Updates oder hängt)."
fi

log "==== ENDE: Workflow abgeschlossen ===="


Schritt 3: Der Schlüssel zum Erfolg – SSH ohne Passwort

Damit mein Primary-Server dem Secondary-Server sagen kann „Fahr jetzt runter“, muss er sich per SSH einloggen können – und zwar vollautomatisch ohne Passwort-Eingabe.

Das Lösen wir über SSH-Keys. Das klingt kompliziert, ist aber in einer Minute erledigt.

Key generieren: Logge dich auf der Shell deines Primary ein und gib ein:

    ssh-keygen -t ed25519 -C "masterkey" 

    Bestätige einfach alles mit Enter (kein Passwort/Passphrase setzen!).

    Key kopieren: Jetzt müssen wir diesen Schlüssel auf den Secondary übertragen. Dafür gibt es einen genialen Befehl:

    ssh-copy-id root@DEINE-SECONDARY-IP

    Hier musst du ein letztes Mal das Passwort des Secondary eingeben.

      Ab jetzt kann sich dein Primary jederzeit per ssh root@DEINE-SECONDARY-IP auf dem Secondary einloggen, ohne nach einem Passwort zu fragen. Das ist die Grundvoraussetzung, damit unsere Skripte funktionieren.


      Schritt 4: Alles automatisieren mit Cronjobs

      Wir haben die Hardware optimiert, hd-idle eingerichtet und Skripte geschrieben. Aber wir wollen das ja nicht jeden Tag manuell ausführen. Wir wollen Proxmox Energie sparen, ohne daran denken zu müssen.

      Dafür nutzen wir Cronjobs. Tippe in deine Proxmox-Shell:

      [Code-Block]

      Bash

      crontab -e
      

      Hier können wir genau festlegen, wann was passiert. Mein Zeitplan richtet sich nach der Sonne:

      • Vormittags (z.B. 09:50 Uhr): Das Start-Skript läuft an. Die Sonne kommt raus, wir haben Energie für Backups.
      • Nachmittags (z.B. 16:02 Uhr): Das Stop-Skript wird ausgeführt. Die Backups sollten durch sein, wir fahren alles runter.
      # Zeitzone optional festsetzen (empfohlen)
      CRON_TZ=Europe/Berlin
      
      # PATH setzen, damit man nicht immer /usr/bin/ schreiben muss
      PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
      
      # Secondary-Proxmox + PBS + VM102 morgens starten
      50 9 * * * /root/automation/proxmox-slave-start.sh > /var/log/slave-workflow-last.log 2>&1
      # VM102 stoppen, PBS deaktivieren und Secondary-Proxmox herunterfahren (z. B. 16:02)
      2 16 * * * /root/automation/proxmox-slave-stop.sh >> /var/log/slave-workflow-last.log 2>&1
      
      # Nach Reboot erstmal wieder PBS Storage aktivieren , da PBS VM im Autostart
      @reboot /usr/sbin/pvesm set PBS_DXP8800Plus --disable 0 >> /var/log/pbs-storage.log 2>&1
      

      Durch diese Automatisierung läuft mein großes Backup-System nur wenige Stunden am Tag. Die restlichen 18-20 Stunden verbraucht dieser Teil meines Home Labs: 0 Watt.


      Schritt 5: Der Feinschliff – CPU Governor anpassen

      Zum Schluss noch ein kleiner Tipp für das i-Tüpfelchen. Moderne CPUs bieten verschiedene Energiemodi („Governor“).

      Auch das lässt sich per Cronjob steuern:

      • Nachts (Power-Save): Wenn ich schlafe und das System kaum Last hat, schalte ich die CPU in den powersave-Modus. Sie taktet runter und spart das letzte bisschen Watt.
      • Morgens (Performance): Wenn mein Home Assistant und andere Dienste aktiv werden, schalte ich zurück auf performance (oder ondemand), damit das System reaktionsschnell bleibt.

      Der Befehl dafür sieht in etwa so aus (abhängig von deiner CPU):

      cpupower frequency-set -g powersave
      

      Das mag nur ein paar Watt ausmachen, aber beim Thema Proxmox Energie sparen zählt am Ende die Summe aller Maßnahmen.

      # NACHT-MODUS (23:00 Uhr): Powersave
      0 23 * * * cpupower frequency-set -g powersave
      
      # TAG-MODUS (07:00 Uhr): Performance / maximale CPU Leistung
      0 7 * * * cpupower frequency-set -g performance && cpupower frequency-set -u $(cpupower frequency-info -l | tail -1 | awk '{print $2}')

      Fazit: Weniger Watt, mehr Freude

      Es ist ein komplexes Thema, und ja, man muss sich einmal hinsetzen und die Skripte einrichten. Aber der Aufwand lohnt sich. Ich konnte meinen Verbrauch von konstanten über 100 Watt auf durchschnittlich 39 Watt senken. Auf das Jahr gerechnet ist das eine massive Ersparnis auf der Stromrechnung, die das Hobby „Home Lab“ deutlich familienfreundlicher macht.

      Ich hoffe, diese Anleitung hilft dir dabei, dein Setup zu optimieren. Alle Skripte findest du natürlich auch hier zum Kopieren, damit du das Rad nicht neu erfinden musst.

      Was ist dein größter Stromfresser im Rack? Schreib es mir gerne in die Kommentare – vielleicht finden wir gemeinsam eine Lösung!

      Ugreen NAS mit Proxmox – So baust du dir dein eigenes HomeLab

      Home Assistant Weihnachtsbeleuchtung automatisch steuern – Meine Automatisierung des Monats

      👉 Direkt auf YouTube schauen und abonnieren:
      Smart Home & More auf YouTube

      Einleitung

      Die Adventszeit ist für viele eine der schönsten Zeiten im Jahr – und gleichzeitig eine der stressigsten. Zwischen Terminen, Familie und Alltag bleibt oft wenig Zeit, sich um die Weihnachtsbeleuchtung zu kümmern. Immer wieder Schalter drücken, Lichterketten einschalten, Außenbeleuchtung aktivieren und am Ende des Tages wieder alles abschalten – das kostet Zeit und Nerven.

      Genau deshalb habe ich mir dieses Jahr eine besonders flexible und wiederverwendbare Lösung gebaut: Eine Home Assistant Weihnachtsbeleuchtung, die komplett automatisch funktioniert und sich über Kalender, Label, Zeitpläne und einen Template-Sensor steuern lässt.
      Das Ganze ist meine Automatisierung des Monats – und sie lässt sich perfekt auf andere Jahreszeiten oder Anlässe übertragen.

      In diesem Beitrag zeige ich Schritt für Schritt, wie ich das Ganze umgesetzt habe, welche Bausteine ich verwende und wie du die Automatisierung für dein eigenes Zuhause anpassen kannst.


      Warum eine Home Assistant Weihnachtsbeleuchtung?

      Die tägliche Routine rund um die Beleuchtung hat mich jedes Jahr aufs Neue genervt: Schalter drücken, einzelne Lampen aktivieren oder vergessen auszuschalten. Gerade wenn man Home Assistant nutzt, liegt es nahe, diese Abläufe vollständig zu automatisieren.

      Wichtig war mir dabei:

      • Innen- und Außenbeleuchtung getrennt steuern zu können
      • Bedingungen wie Anwesenheit, Nachtmodus, Sonnenstand und Zeitfenster kombinieren zu können
      • Eine Lösung zu haben, die jedes Jahr ohne Anpassung funktioniert
      • Neue Lampen oder Steckdosen ohne Änderungen an der Automatisierung einbinden zu können

      Die Grundlage dafür bilden Kalender, Template-Sensor, Labels und Zeitpläne.


      Schritt 1: Kalender für die Weihnachtszeit

      Damit die Automatisierung jedes Jahr ohne Anpassung funktioniert, lege ich in Home Assistant einen Kalender an. Dort definiere ich den Zeitraum der Weihnachtszeit. Der Kalender steuert später, ob die Automation aktiv ist oder nicht.

      Vorgehen:

      • Die Integration „Kalender“ hinzufügen
      • Einen Kalender „Automatisierung“ anlegen
      • Einen Termin „Weihnachtszeit“ erstellen
      • Jährlich wiederholen aktivieren

      Damit weiß Home Assistant jedes Jahr automatisch, ob sich die Weihnachtszeit gerade im aktiven Zeitraum befindet.

      Kalender


      Schritt 2: Template-Sensor für den Zustand „Weihnachtszeit“

      Aus dem Kalender erstelle ich einen Template-Sensor-Helfer, der lediglich den Zustand „an“ oder „aus“ besitzt. Dieser Sensor ist später eine zentrale Bedingung in der Automatisierung und greift auf den Automatisierungskalender zurück.

      Beispielcode:

      {{ is_state('calendar.automatisierung', 'on')
      and state_attr('calendar.automatisierung', 'message') == 'Weihnachtszeit' }}
      

      Binärer Template Sensor

      Dieser Sensor liefert ein sauberes Boolean-Ergebnis und erleichtert die Logik deutlich.


      Schritt 3: Labels für Innen und Außen

      Labels sind ein extrem hilfreiches Werkzeug in Home Assistant. Ich nutze zwei Labels:

      • Weihnachtsbeleuchtung (Innen)
      • Weihnachtsbeleuchtung (Außen)

      Mit Labels kann ich flexibel Lampen hinzufügen oder entfernen, ohne jemals den Automationscode anfassen zu müssen.
      Gerade bei saisonaler Deko ist das ideal.

      Dann werden alle zu verwendeten Beleuchtungen mit den jeweiligen Labeln versehen.


      Schritt 4: Zeitpläne für die Innenbeleuchtung

      Die Innenbeleuchtung benötigt andere Regeln als die Außenbeleuchtung. Drinnen möchte ich feste Zeitfenster nutzen, die sich außerdem nach Wochentagen und dem Nachtmodus richten.

      Ich arbeite mit einem Zeitplan Helfer

      1. Morgens: 5:00 bis 10:30 (Wochenende ab 6:30)
      2. Nachmittags bis abends: 15:00 bis 24:00

      Diese Zeitpläne lassen sich jederzeit anpassen, ohne die Automatisierung zu verändern.


      Schritt 5: Außenbeleuchtung mit Sonnenaufgang und Sonnenuntergang

      Für die Außenbeleuchtung nutze ich den Sonnenstand:

      • Einschalten: eine Stunde vor Sonnenuntergang
      • Ausschalten: bei Sonnenaufgang

      Damit läuft die Außenbeleuchtung immer zu den richtigen Zeiten, ohne dass ich eingreifen muss.


      Schritt 6: Die Automatisierung – alles zusammengeführt

      Die Automatisierung kombiniert:

      • Kalender
      • Template-Sensor
      • Zeitpläne
      • Nachtmodus
      • Anwesenheit
      • Sonnenstand
      • Labels

      Die Automation reagiert auf verschiedene Trigger und führt dann die passenden Aktionen aus.

      Beispielsweise:

      • Wenn die Weihnachtszeit endet, wird jede Beleuchtung deaktiviert.
      • Wenn morgens der Nachtmodus endet und der Zeitplan aktiv ist, wird innen die Weihnachtsbeleuchtung eingeschaltet.
      • Wenn jemand nach Hause kommt, wird die Weihnachtsbeleuchtung aktiviert, sofern kein Nachtmodus aktiv ist.
      • Wenn der Scheduler triggert und jemand zu Hause ist, wird die Weihnachtsbeleuchtung eingeschaltet.
      • Beim Sonnenuntergang wird die Weihnachtsbeleuchtung-Außen eingeschaltet.
      • Beim Sonnenaufgang oder bei Ende der Weihnachtszeit wird die Weihnachtsbeleuchtung-Außen ausgeschaltet.

      Welche Entitäten musst du für deine eigene Installation anpassen?

      Damit die Automatisierung für deine Weihnachtsbeleuchtung korrekt funktioniert, solltest du einige Entitäten an dein eigenes Home-Assistant-Setup anpassen. Im Folgenden findest du alle Stellen, an denen du eigene Namen, Gruppen oder Helper verwenden musst.

      1. Sensoren und Helper

      • binary_sensor.weihnachtszeit
        Dieser Sensor entscheidet, ob gerade „Weihnachtszeit“ ist. Du kannst stattdessen auch einen eigenen Helper oder eine Bedingung verwenden.
      • input_boolean.notify_night
        Der Nachtmodus-Schalter. Falls du einen anderen Boolean für deinen Nachtmodus nutzt, musst du diesen hier ersetzen.
      • input_select.haus_modus
        Der Hausmodus (z. B. „Anwesend“ oder „Abwesend“). Achte darauf, dass deine eigenen Auswahlwerte exakt zu deiner Konfiguration passen.

      1. Zeitplan / Schedule

      • schedule.zeitplan_weihnachtsdeko
        Dies ist der Zeitplan, der festlegt, wann die Weihnachtsbeleuchtung aktiv sein soll. Passe den Namen an deinen eigenen Zeitplan an.

      1. Lichtgruppen oder Labels
        Die wichtigste Anpassung betrifft die Zielbeleuchtung. In der Automation werden Labels verwendet, um mehrere Geräte gleichzeitig anzusteuern.

      • weihnachtsbeleuchtung_innen
        Gruppe bzw. Label für alle Innenlichter.
      • weihnachtsbeleuchtung_aussen
        Gruppe bzw. Label für alle Außenlichter.

      Wenn du keine Labels verwendest, kannst du stattdessen auch einzelne Licht-Entitäten direkt im Zielbereich der Automation eintragen.

      1. Sonnenuntergang und Sonnenaufgang
        Die Automation reagiert zusätzlich mit folgenden Offsets:

      • Sonnenuntergang: 1 Stunde vorher
      • Sonnenaufgang: 1 Stunde später
        Diese Offsets kannst du bei Bedarf an deine eigenen Lichtverhältnisse anpassen.

      Wenn du diese Entitäten im Skript austauschst, kannst du die komplette Automation sofort in deinem eigenen Home Assistant verwenden.

      alias: Weihnachtsbeleuchtung
      description: ""
      triggers:
        - trigger: state
          entity_id:
            - binary_sensor.weihnachtszeit
          to:
            - "off"
          id: id_xmas_end
        - trigger: state
          entity_id:
            - input_boolean.notify_night
          to:
            - "off"
          id: id_night_off
        - trigger: state
          entity_id:
            - input_boolean.notify_night
          to:
            - "on"
          id: id_night_on
        - trigger: state
          entity_id:
            - input_select.haus_modus
          to:
            - Abwesend
          id: id_away
        - trigger: state
          entity_id:
            - input_select.haus_modus
          to:
            - Anwesend
          id: id_home
        - trigger: state
          entity_id:
            - schedule.zeitplan_weihnachtsdeko
          to:
            - "on"
          id: id_sched_on
        - trigger: state
          entity_id:
            - schedule.zeitplan_weihnachtsdeko
          to:
            - "off"
          id: id_sched_off
        - trigger: sun
          event: sunset
          offset: "-01:00:00"
          id: id_sunset
        - trigger: sun
          event: sunrise
          offset: "01:00:00"
          id: id_sunrise
      conditions:
        - condition: or
          conditions:
            - condition: state
              entity_id: binary_sensor.weihnachtszeit
              state:
                - "on"
            - condition: trigger
              id:
                - id_xmas_end
      actions:
        - alias: Wenn Weihnachtszeit zu Ende
          choose:
            - conditions:
                - condition: trigger
                  id:
                    - id_xmas_end
              sequence:
                - action: light.turn_off
                  metadata: {}
                  data: {}
                  target:
                    label_id:
                      - weihnachtsbeleuchtung_innen
                      - weihnachtsbeleuchtung_aussen
            - conditions:
                - condition: and
                  conditions:
                    - condition: trigger
                      id:
                        - id_night_off
                    - condition: state
                      entity_id: schedule.zeitplan_weihnachtsdeko
                      state:
                        - "on"
              sequence:
                - action: light.turn_on
                  metadata: {}
                  data: {}
                  target:
                    label_id: weihnachtsbeleuchtung_innen
              alias: >-
                Morgens früh, wenn Nachtmodus ausgeschaltet wird,
                Weihnachtsbeleuchtung innen einschalten
            - conditions:
                - condition: and
                  conditions:
                    - condition: trigger
                      id:
                        - id_home
                    - condition: state
                      entity_id: input_boolean.notify_night
                      state:
                        - "off"
                    - condition: state
                      entity_id: schedule.zeitplan_weihnachtsdeko
                      state:
                        - "on"
                  alias: Jemand kommt nach Hause
              sequence:
                - action: light.turn_on
                  metadata: {}
                  data: {}
                  target:
                    label_id: weihnachtsbeleuchtung_innen
              alias: Jemand kommt nach Hause
            - conditions:
                - condition: and
                  conditions:
                    - condition: state
                      entity_id: input_boolean.notify_night
                      state:
                        - "off"
                    - condition: state
                      entity_id: input_select.haus_modus
                      state:
                        - Anwesend
                    - condition: trigger
                      id:
                        - id_sched_on
              sequence:
                - action: light.turn_on
                  metadata: {}
                  data: {}
                  target:
                    label_id: weihnachtsbeleuchtung_innen
              alias: Weihnachtsscheduler On
            - conditions:
                - condition: trigger
                  id:
                    - id_sunset
              sequence:
                - action: light.turn_on
                  metadata: {}
                  data:
                    rgb_color:
                      - 240
                      - 5
                      - 5
                    brightness_pct: 20
                  target:
                    label_id: weihnachtsbeleuchtung_aussen
              alias: Sonnenuntergang Außenbeleuchtung an
            - conditions:
                - condition: or
                  conditions:
                    - condition: trigger
                      id:
                        - id_away
                    - condition: trigger
                      id:
                        - id_sched_off
                    - condition: trigger
                      id:
                        - id_xmas_end
                    - condition: trigger
                      id:
                        - id_night_on
              sequence:
                - action: light.turn_off
                  metadata: {}
                  data: {}
                  target:
                    label_id: weihnachtsbeleuchtung_innen
              alias: Beleuchtung innen aus
            - conditions:
                - condition: or
                  conditions:
                    - condition: trigger
                      id:
                        - id_sunrise
                    - condition: trigger
                      id:
                        - id_xmas_end
              sequence:
                - action: light.turn_off
                  metadata: {}
                  data: {}
                  target:
                    label_id: weihnachtsbeleuchtung_aussen
              alias: Beleuchtung Außen aus
      mode: queued
      max: 10
      


      Erweiterungsmöglichkeiten

      Die Automatisierung ist so aufgebaut, dass ich sie jederzeit für andere Zwecke wiederverwenden kann. Denkbare Erweiterungen:

      • Halloween
      • Gartenbeleuchtung
      • saisonale Outdoor-Deko
      • Bewässerungssysteme
      • Ambient-Licht-Szenen

      Ich ändere lediglich die Labels oder Zeitpläne – die Grundstruktur bleibt gleich.

      Home Assistant Nachtmodus mit Labels – So automatisierst du dein Smart Home einfacher



      Fazit

      Mit meiner Home Assistant Weihnachtsbeleuchtung habe ich eine Automation umgesetzt, die vollständig automatisch läuft und jedes Jahr ohne Änderungen wiederverwendet werden kann. Durch die Kombination aus Kalender, Template-Sensor, Labeln und Zeitplänen entsteht eine sehr flexible und robuste Lösung, die mir im Alltag Arbeit abnimmt und zuverlässig funktioniert.

      Ich hoffe, diese Automatisierung des Monats inspiriert dich zu eigenen Projekten und gibt dir eine klare Struktur, wie du ähnliche Aufgaben in Home Assistant lösen kannst. Wenn du Fragen hast oder deine eigene Version teilen möchtest, freue ich mich über Rückmeldungen auf meinem Youtube Kanal

      Proxmox Backup Server einrichten – so sichere ich mein komplettes HomeLab ( inkl. ZFS-Mirror, UGREEN NAs & Sync Setup)

      👉 Direkt auf YouTube schauen und abonnieren:
      Smart Home & More auf YouTube

      Proxmox Backup Server Titelbild

      In meinem HomeLab spielt der Proxmox Backup Server eine zentrale Rolle. Viele unterschätzen das Thema Backups – aber wenn eine VM plötzlich weg ist oder Hardware ausfällt, sind die Schmerzen groß. Genau deshalb zeige ich dir in diesem Beitrag, wie ich meinen Proxmox Backup Server (PBS) eingerichtet habe: mit ZFS-Mirror, by-id-Passthrough, Backup-Jobs, Remote-Sync und Wiederherstellungsstrategie.

      Ich verwende in meinem Setup mehrere UGREEN NAS-Systeme, die hervorragend mit Proxmox harmonieren und gleichzeitig effizient und leise laufen. Meine Geräte:

      Dazu habe ich den Speicher erweitert:
      48 GB RAM für UGREEN NAS*
      👉 https://amzn.to/4nZzEfw


      Warum Backups mehr sind als nur eine Kopie

      Bevor wir starten, kurz der wichtigste Unterschied:

      • ZFS Mirror → schützt mich vor Plattenausfall
      • Proxmox Backup Server → schützt mich vor Datenverlust
      • Remote Sync → schützt mich vor Brand, Diebstahl, Defekt

      Ich erlebe in der Community häufig, dass ein RAID oder ZFS-Mirror als Backup verstanden wird. Das ist aber nur eine Verfügbarkeitsschicht, kein echtes Backup.
      Backups entstehen erst, wenn:

      • Daten inkrementell gespeichert werden
      • Versionen existieren
      • sie auf getrennter Hardware liegen

      Genau das erfüllt der Proxmox Backup Server im gezeigten Setup.


      Mein Setup – Überblick

      Ich nutze:

      • Proxmox 9 auf meinem HomeLab
      • UGREEN DXP8800 Plus als Haupt-NAS
      • UGREEN DXP4800 Plus als Backup-NAS
      • Ein weiterer PBS in der Cloud (optional)

      Damit kann ich selbst bei einem kompletten Hardware-Schaden alle Backups wiederherstellen.


      ZFS Mirror anlegen – die Basis

      Zuerst habe ich im UGREEN NAS ein ZFS Mirror aus 2 HDDs angelegt. Das schafft Redundanz und optimale Performance für den PBS-Datastore.

      In meinem Fall:

      Damit ZFS in der PBS-VM funktioniert, brauche ich die echten Laufwerke – und genau dafür ist Passthrough per /dev/disk/by-id unverzichtbar.


      Warum ich /dev/disk/by-id nutze

      Wenn du einfach /dev/sda oder /dev/sdb durchreichst, kann die Reihenfolge nach einem Reboot oder Update wechseln.
      Das wäre fatal.

      Darum nutze ich:

      ls -l /dev/disk/by-id
      

      Dort suche ich meine beiden HDDs heraus – in meinem Fall z. B.:

      • ata-ST4000DM004_XXXXXX
      • ata-ST4000DM004_YYYYYY

      Diese IDs trage ich später bei der VM als Passthrough ein.

      Erste HDD an scsi1:
      
      qm set 126 --scsi1 /dev/disk/by-id/ata-WDC_WD40EFPX-68C6CN0_WD-WX12DC482U93
      
      Zweite HDD an scsi2:
      
      qm set 126 --scsi2 /dev/disk/by-id/ata-WDC_WD40EFPX-68C6CN0_WD-WX22DC4LF10E


      Proxmox Backup Server ISO vorbereiten

      Ich lade das ISO bei Proxmox herunter und packe es ins in mein Proxmox.

      Dann lege ich eine neue VM an:

      • BIOS: UEFI
      • Machine: q35
      • Disk: 64 GB (SSD-Simulation)
      • RAM: 2 GB
      • Cores: 2
      • Netzwerkkarte: VirtIO

      Alles sehr genügsam – PBS ist extrem leichtgewichtig.


      ZFS Mirror im PBS anlegen

      Sobald die VM läuft:

      1. Storage → Disks
      2. Die beiden Passthrough-HDDs auswählen
      3. ZFS → Mirror
      4. Namen vergeben (z. B. zfs-mirror-pbs)
      5. Erstellen


      PBS im Proxmox einbinden

      Jetzt binde ich den Backup Server in Proxmox ein:

      • Datacenter → Storage → Add → Proxmox Backup Server

      Hier brauche ich:

      • IP des PBS
      • Benutzer: root@pam
      • Datastore-Name (z. B. zfsmirrorpbs)
      • Fingerprint aus PBS → Dashboard → „Show Fingerprint“

      Nach dem Speichern erscheint der PBS sofort im Storage-Baum.

      Backup-Job in Proxmox erstellen

      Jetzt richte ich den eigentlichen Backup-Job ein:

      • Datacenter → Backup → Add
      • Schedule: täglich 21:00 Uhr
      • Mode: selected VMs (damit PBS sich nicht selbst sichert)

      Optional:

      • Notifications per Mail
      • Compression Zstandard
      • Bandwidth-Limit


      Retention – wie viele Backups ich behalte

      Hier verwende ich eine Mischung aus kurz und langfristig:

      • Keep Last: 5
      • Keep Daily: 1
      • Keep Weekly: 1
      • Keep Monthly: 2
      • Keep Yearly: 2

      Damit habe ich:

      • schnelle Wiederherstellung
      • Schutz vor Ransomware
      • sauberen Versionsverlauf


      Backup testen

      Ich starte den Job manuell:

      Backup → Run now

      Wenn die VM danach im Datastore auftaucht, weiß ich:
      Das Grundsetup passt.


      Mein zweiter PBS – Remote Sync für echte Sicherheit

      Jetzt kommt der wichtigste Teil:
      Backups müssen extern gespeichert werden.

      Ich habe darum ein zweites NAS:

      Dort läuft ebenfalls ein Proxmox Backup Server.

      Ich richte dann ein:

      • Remote
      • Pull-Job (mein Favorit, weil sicherer)
      • Automatische Synchronisation

      Beispiel:

      • Quelle: PBS #1 (Hauptsystem)
      • Ziel: PBS #2 (Backup-NAS)

      So habe ich die Daten:

      • vor Ort → schnell wiederherstellbar
      • auf zweiter Hardware → geschützt vor Totalausfall

      Option:
      Ich betreibe zusätzlich einen PBS in der Hetzner Cloud für maximale Redundanz.


      Energieoptimierung – mein Ansatz

      Viele fragen mich:

      „Kann ich das zweite NAS nicht einfach herunterfahren?“

      Ja, kann man:

      • Second-NAS per Sync-Zeitpunkt wecken
      • Nach Sync automatisch herunterfahren
      • ZFS-Spindown aktivieren
      • Nur einmal pro Tag synchronisieren

      Dadurch spare ich signifikant Energie.

      Ich plane dazu ein eigenes Video & Blogbeitrag. Falls Interesse besteht, bitte in den Kommentaren zum Video einen kleinen Hinweis geben.


      Restore – warum PBS hier so stark ist

      Was ich am Proxmox Backup Server besonders schätze:

      • Deduplizierung
      • Schnelle inkrementelle Sicherungen
      • Extrem schnelle Wiederherstellung
      • Versioning
      • Bandbreitenlimit
      • Datensparsamkeit

      Ich kann:

      • komplette VMs wiederherstellen
      • nur einzelne Dateien mounten
      • Snapshots vergleichen
      • Remote-Backups ziehen

      Im Fall eines Hardware-Defekts:

      • ZFS-Mirror in neue Hardware einstecken
      • PBS ISO booten
      • Pool importieren
      • Backups direkt wiederherstellen


      Fazit – ein zuverlässiges, effizientes Backup-System

      Mit dem Proxmox Backup Server, ZFS-Mirror und einem zweiten NAS habe ich endlich ein Setup, das:

      • sicher,
      • schnell,
      • energieeffizient
      • und absolut robust ist.

      Ich kann Hardware austauschen, VMs sofort wiederherstellen und selbst im Worst-Case bleibt mein komplettes HomeLab funktionsfähig.

      Wenn du ein UGREEN-NAS einsetzt oder ein kompaktes HomeLab betreiben möchtest, kann ich dir diese Lösungen ehrlich empfehlen:

      Wenn du Fragen hast oder dein eigenes Backup-Setup optimieren willst, schreib’s gern in die Kommentare unter dem Video.

      Folgende Beiträge zum Themen könnten dich auch interessieren:

      Unraid unter Proxmox installieren – Mein komplettes HomeLab-Setup Schritt für Schritt

      Ugreen NAS mit TrueNAS – mein Setup unter Proxmox, ZFS & SMB-Freigaben im Praxistest

      Ugreen NAS im Test – Mein Setup mit dem DXP8800 Plus & DXP4800 Plus für Smart Home und Proxmox

      Roborock in Home Assistant: Vacuum Map Card richtig einrichten und Räume gezielt reinigen

      👉 Direkt auf YouTube schauen und abonnieren:
      Smart Home & More auf YouTube

      Einführung

      Seit 2019 setze ich Roborock-Saugroboter zuverlässig in meinem Zuhause ein. Von älteren Modellen bis hin zu aktuellen Geräten arbeiten sie täglich für uns – und sind für unsere Familie nicht mehr wegzudenken. Gerade weil wir in jedem Stockwerk einen Roborock nutzen, ist mir eine effiziente Integration in Home Assistant besonders wichtig.

      Bereits vor längerer Zeit hatte ich dazu ein Video sowie ein Skript bereitgestellt. Dieses funktionierte zuverlässig, war jedoch an ein grundlegendes Problem gebunden: Es arbeitete auf Geräte-IDs statt Entitäten. Wenn ein neuer Roboter hinzukam, musste das gesamte Skript manuell angepasst werden. Da bei uns immer wieder ein neues Modell seinen Platz findet, wurde diese Anpassung zunehmend unübersichtlich. Aus diesem Grund habe ich eine modernisierte, flexiblere Lösung entwickelt.

      In diesem Beitrag zeige ich Schritt für Schritt, wie du:

      • Roborock korrekt in Home Assistant einbindest
      • die Roborock Custom Map Integration installierst
      • die Vacuum Map Card einrichtest
      • Räume sauber konfigurierst
      • die Karte vollständig nutzen kannst

      Das Ziel ist, Roborock komfortabel und visuell ansprechend zu steuern – ganz ohne komplexe Skriptanpassungen.

      Roborock Vacuum Map Card


      Unterstützung des Kanals

      Die Erstellung meiner Skripte und Videos ist mit einem erheblichen zeitlichen Aufwand verbunden – von der technischen Vorbereitung und intensiven Recherche bis hin zu Tests, Aufnahmen und Nachbearbeitung. Alle Inhalte stelle ich dir dennoch vollständig kostenlos zur Verfügung.

      Aktuell gibt es in den Black Weeks besonders attraktive Angebote. Ich selbst habe mir zu diesen hervorragenden Konditionen einen neuen Roborock-Saugroboter gegönnt – die Preise sind wirklich stark.

      Wenn du ebenfalls über den Kauf eines Roborock nachdenkst, kannst du meinen Kanal und meine Arbeit wirkungsvoll unterstützen, indem du den Roboter über meinen Affiliate-Link bestellst. Für dich bleibt der Preis unverändert, aber ein kleiner Anteil des Kaufpreises hilft mir, weiterhin hochwertige Inhalte bereitzustellen. Wenn du vielleicht etwas anderes in den Black Wecks kaufen möchtest, kannst du mich dennoch unterstützen, wenn du meinen allgemeinen amazon Link für deinen Einkauf verwendest.

      Angebot


      roborock Qrevo Curv Saugroboter mit Wischfunktion&Hebarem Wischmopp, Dual Anti-Tangle-System, AdaptiLift™ Chassis, 18.500Pa, 75℃ Heißwasser-Moppwäsche, Intelligente Schmutzerkennung&Sprachassistent

      • [Dual Anti-Tangle-System] Entdecke das revolutionäre doppelte Verhedderungsschutz-System des roborock Qrevo Curv mit Hauptbürste und Seitenbürste, einfach perfekt für den Umgang mit langen Haaren und für haustierfreundliche Wohnungen. Genieße eine Reinigung ohne verhedderte Haare und ähnliches, die Bürste reinigt sich fast von selbst.
      • [Extreme Saugkraft von 18.500 Pa] Branchenführende 18.500 Pa HyperForce Saugkraft in Kombination mit den Borsten der DuoDivide Bürste garantieren, dass der roborock Qrevo Curv auch anspruchsvolle Stellen wie Teppiche und Lücken in harten Böden gründlich reinigt und dabei selbst die kleinsten Partikel entfernt.
      • [FlexiArm Technologie] Die FlexiArm Arc Seitenbürste und das Kantenwischsystem, die exklusiv von Roborock angeboten werden, ermöglichen eine unvergleichliche Reinigungsabdeckung, da blinde Flecken beseitigt werden und somit kein Schmutz zurückbleibt.
      • [AdaptiLift Chassis] Erreiche ein höheres Niveau bei der Reinigung mit dem AdaptiLift Chassis, einer Premiere in der Branche, bei der viele verschiedene Anhebezustände dank drei unabhängig einstellbarer Räder erreicht werden können. So kann das gesamte Chassis um 10 mm angehoben werden oder nur die vordere, hintere, linke oder rechte Hälfte, damit die Anpassung an deine heimische Umgebung problemlos möglich ist.
      • [75 °C Heißwasser-Moppwäsche] Beseitige problemlos hartnäckige Flecken und fettige Verschmutzungen mit 75 °C heißem Wasser von deinen Mopps, gleichermaßen perfekt für Küchen und Essbereiche. Das heiße Wasser beseitigt über 99,99 % der Bakterien und gewährleistet optimale Hygiene. Mit drei einstellbaren Temperatureinstellungen bist du auf jedes Reinigungsszenario vorbereitet.

      Angebot


      roborock Saros 10R Saugroboter mit Wischfunktion&angebbarem Wischmopp, 22,000 Pa, 7,98cm Ultra-Slim Design, StarSight System 2.0, Zero-Tangle System

      • 7,98cm Ultraflaches Design – Dank des autonomen StarSight Systems 2.0 der nächsten Generation ist der Saros 10R unglaublich smart und beeindruckend flach. Mit seiner hochentwickelten Positionierungs- und Kartierungsfunktiornen navigiert er mühelos unter Sofas und Betten.
      • Autonomes StarSight System 2.0 – Mithilfe fortschrittlicher Technologie zur Vermeidung seitlicher Hindernisse gleitet er mühelos um unregelmäßig geformte Möbel und Wände herum und reinigt sogar die Umgebung herumliegender Kabel garantiert gründlich.
      • Zero-Tangle-System – Ständige Wartung der Bürste ist für dich kein Thema mehr- dank des revolutionären Anti-Tangle-Systems an Hauptbürste und Seitenbürste. Das System reinigt sich selbst und kommt selbst mit langen Haaren zurecht. Dank HyperForce Saugleistung verschwinden Staub und Schmutz auf verschiedenen Arten von Böden und Teppichen, da auch die kleinsten Partikel spurlos beseitigt werden.
      • FlexiArm Riser Seitenbürste und Mopp – Die FlexiArm Technologie ist die Grundlage der doppelten Roboterarme für die Seitenbürste und den Mopp, damit Schmutz aus Ecken, an Kanten und unter Möbeln gekonnt aufgekehrt wird.
      • AdaptiLift Chassis als Branchenpremiere – Das gesamte Gehäuse kann abgenommen werden. Dabei sind die drei Räder unabhängig voneinander einstellbar. So erreicht dein Roborock auch schwer erreichbarre Stellen wie ein allrad-betriebener Geländewagen – für optimale Reinigungsabdeckung.

      Roborock Core Integration installieren

      Ich beginne in Home Assistant mit einer sauberen Testumgebung, sodass jeder Schritt nachvollziehbar ist. Die Core Integration lässt sich über Einstellungen → Geräte & Dienste → Integration hinzufügen installieren. Nach Eingabe der E-Mail-Adresse und des Bestätigungscodes erscheinen alle Roborock-Geräte automatisch in der Übersicht.

      Roborock Integration

      Damit steht das Fundament, auf dem die gesamte spätere Kartenfunktionalität aufbaut.


      Custom Map Integration über HACS installieren

      Die Vacuum Map Card benötigt spezielle Map-Datenstrukturen. Die normale Roborock-Integration stellt diese jedoch nicht vollständig bereit. Genau dafür dient die Roborock Custom Map Integration.

      Roborock Custom Map Integration

      Nach dem Öffnen des Repositorys in HACS sucht man nach Roborock Custom Map Integration und drückt auf herunterladen. Anschließend ist ein Neustart von Home Assistant erforderlich. Roborock

      Wichtig: Die bisherige Image-Entität des Roboters sollte deaktiviert werden. Die neue Custom-Image-Entität wird später in der Vacuum Map Card genutzt.

      Roborock Image deaktivieren


      Vacuum Map Card installieren

      Die Karte selbst wird ebenfalls über HACS installiert.

      Roborock Vacuum Map Card

      Ein Neustart ist hier nicht notwendig. Danach kann ich direkt im Dashboard eine neue Karte hinzufügen und folgende Einstellungen setzen:

      • Plattform: Roborock
      • Staubsauger: Eure Sauger Entität
      • Image: die neue, durch die Custom Map Integration erzeugte Map-Entität

      Die Karte zeigt nun die vollständige Umgebung an und bildet die Grundlage für die spätere Raumsteuerung.


      Räume korrekt einrichten

      Damit die Karte weiß, welche Bereiche ausgewählt werden können, müssen die Räume in der Roborock App korrekt definiert bzw. bereinigt werden.

      Roborock Handy App

      Über Karte bearbeiten → Erstelle Raumkonfiguration wird die Raumkonfiguration ausgelesen und im YAML Code der Karte angelegt. Im Code-Editor kann man dann die Erstellung überprüfen.

      Hier zeigt Home Assistant zwar sämtliche Räume an, allerdings meist in mehrfacher Ausführung. Ich lösche alle überflüssigen Einträge und behalte nur diejenigen, die tatsächlich existieren – in meinem Fall Flur, Studio und Büro. Mir ist dabei aufgefallen, wenn man von unten nach oben geht, dann hat man an den letzten Stellen immer die korrekten Räume mit ihren IDs. D.h. ich geht wie im Beispiel Studio, Büro, Flur nach oben und löscht wie im Video gezeigt die überflüssigen Räume

      Nach dem Speichern erscheinen die Räume korrekt und lassen sich über die Karte selektieren.


      Erweiterte Reinigungsoptionen – ohne Skriptanpassungen

      Viele Anwender starten die Reinigung direkt über die Karte und stellen die gewünschten Parameter dort ein. Das funktioniert zuverlässig. Auch Saugleistung, Modi und Wischintensitäten lassen sich dort einstellen.

      Da ich selbst häufig erst sauge und anschließend wische, habe ich ein eigenes erweitertes Vorgehen entwickelt. Dieses ermöglicht es mir über ein Skript erst zu saugen und dann zu wischen und gleichzeitig alle relevanten Parameter vorzubelegen.

      Die benötigten Entitäten – etwa für Mop-Modus, Wischintensität oder Ventilatorgeschwindigkeit – lassen sich zuvor über die Entwicklerwerkzeuge bestimmen. Wichtig, achtet darauf, dass wir die korrekten Attribute bei der Übergabe an das Skript übernehmt.

      Dynamisches Skript für erst Saugen und dann Wischen ( nur für Roborock Saugroboter)

      alias: Sauge und Wische Dynamisch
      description: ""
      mode: parallel
      max: 10
      fields:
        vacuum_entity:
          name: vacuum_entity
          description: Vacuum-Entität, z.B. vacuum.roborock_s8_pro_ultra
          required: true
          selector:
            entity:
              filter:
                domain: vacuum
        mop_mode_entity:
          name: mop_mode_entity
          description: Select-Entität für Mop-Modus (z.B. select.*_mop_modus)
          required: true
          selector:
            entity:
              filter:
                domain: select
        mop_intensity_entity:
          name: mop_intensity_entity
          description: Select-Entität für Wischintensität (z.B. select.*_wisch_intensitat)
          required: true
          selector:
            entity:
              filter:
                domain: select
        segments:
          name: segments
          description: Segment-IDs aus der Map Card (z.B. [16,17])
          required: true
          selector:
            object: {}
        fan_speed_saugen:
          name: fan_speed_saugen
          description: Lüfterstufe fürs Saugen (z.B. max, turbo, quiet)
          required: false
          default: max
          selector:
            text: {}
        fan_speed_wischen:
          name: fan_speed_wischen
          description: Lüfterstufe fürs Wischen
          required: false
          default: quiet
          selector:
            text: {}
        mop_mode:
          name: mop_mode
          description: Mop-Modus (z.B. standard)
          required: false
          default: standard
          selector:
            text: {}
        mop_intensity_saugen:
          name: mop_intensity_saugen
          description: Wischintensität während Saugen
          required: false
          default: mild
          selector:
            text: {}
        mop_intensity_wischen:
          name: mop_intensity_wischen
          description: Wischintensität während Wischen
          required: false
          default: moderate
          selector:
            text: {}
        saugen:
          name: saugen
          description: Soll gesaugt werden?
          required: false
          default: true
          selector:
            boolean: {}
        wischen:
          name: wischen
          description: Soll gewischt werden?
          required: false
          default: true
          selector:
            boolean: {}
      sequence:
        - variables:
            segs: |-
              {% set s = segments %} {% if s is string %}
                {% set s = s | from_json %}
              {% endif %} {{ s | map('int') | unique | list }}
        - if:
            - condition: template
              value_template: "{{ saugen }}"
              alias: Wenn Saugen eingeschaltet ist
          then:
            - alias: Wisch Intensität (Saug-Durchgang)
              action: select.select_option
              target:
                entity_id: "{{ mop_intensity_entity }}"
              data:
                option: "{{ mop_intensity_saugen }}"
            - delay:
                milliseconds: 500
            - alias: Mopp-Modus (Saug-Durchgang)
              action: select.select_option
              target:
                entity_id: "{{ mop_mode_entity }}"
              data:
                option: "{{ mop_mode }}"
            - delay:
                milliseconds: 500
            - alias: Lüfterstufe (Saug-Durchgang)
              action: vacuum.set_fan_speed
              target:
                entity_id: "{{ vacuum_entity }}"
              data:
                fan_speed: "{{ fan_speed_saugen }}"
            - delay:
                milliseconds: 500
            - alias: Starte Saug-Durchgang (Segmente)
              action: vacuum.send_command
              target:
                entity_id: "{{ vacuum_entity }}"
              data:
                command: app_segment_clean
                params: "{{ segs }}"
            - action: persistent_notification.create
              data:
                message: "Sauge: {{ segs }}"
        - alias: Wischen
          if:
            - condition: template
              value_template: "{{ wischen }}"
          then:
            - alias: Wenn Saugen und Wischen aktiv sind
              if:
                - condition: template
                  value_template: "{{ saugen }}"
              then:
                - alias: Warte bis Roboter nicht mehr 'docked' ist
                  wait_template: "{{ not is_state(vacuum_entity, 'docked') }}"
                  timeout: "00:05:00"
                  continue_on_timeout: true
                - alias: Warte bis Roboter 1 Minute am Stück 'docked' ist
                  wait_template: |-
                    {{ is_state(vacuum_entity, 'docked')
                       and (as_timestamp(now())
                            - as_timestamp(states[vacuum_entity].last_changed)) > 60 }}
                  timeout: "02:00:00"
                  continue_on_timeout: true
                - alias: Prüfe Dock-Status nach Timeout
                  if:
                    - condition: template
                      value_template: "{{ not is_state(vacuum_entity, 'docked') }}"
                  then:
                    - action: persistent_notification.create
                      data:
                        title: Saugskript Hinweis
                        message: >-
                          {{ vacuum_entity }} war nach 2 Stunden noch nicht stabil
                          'docked'. Wisch-Durchgang wird trotzdem gestartet.
            - alias: Lüfterstufe (Wisch-Durchgang)
              action: vacuum.set_fan_speed
              target:
                entity_id: "{{ vacuum_entity }}"
              data:
                fan_speed: "{{ fan_speed_wischen }}"
            - delay:
                milliseconds: 500
            - alias: Mopp-Modus (Wisch-Durchgang)
              action: select.select_option
              target:
                entity_id: "{{ mop_mode_entity }}"
              data:
                option: "{{ mop_mode }}"
            - delay:
                milliseconds: 500
            - alias: Wisch Intensität (Wisch-Durchgang)
              action: select.select_option
              target:
                entity_id: "{{ mop_intensity_entity }}"
              data:
                option: "{{ mop_intensity_wischen }}"
            - delay:
                milliseconds: 500
            - alias: Starte Wisch-Durchgang (Segmente)
              action: vacuum.send_command
              target:
                entity_id: "{{ vacuum_entity }}"
              data:
                command: app_segment_clean
                params: "{{ segs }}"
            - action: persistent_notification.create
              data:
                message: "Wische: {{ segs }}"
      


      Integration in die Vacuum Map Card

      Damit die Reinigung komfortabel über einen einzigen Button in der Karte ausgelöst werden kann, erweitere ich die Kartenkonfiguration. Dadurch entsteht ein zusätzlicher Menüpunkt wie „Saugen und Wischen“. Dieser greift auf die zuvor definierten Parameter zu und löst die Reinigungssequenz aus. Roborock

      Default Code Ansicht ohne Räume:

      YAML Code Ansicht der Vacuum Card, mit den Räumen

      type: custom:xiaomi-vacuum-map-card
      map_source:
        camera: image.s8_ug_untergeschoss_custom
      calibration_source:
        camera: true
      entity: vacuum.roborock_s8_pro_ultra
      vacuum_platform: Roborock
      map_modes:
        - template: vacuum_clean_zone
        - template: vacuum_goto
        - template: vacuum_clean_segment
          predefined_selections:
            - id: "16"
              icon:
                name: mdi:broom
                x: 22850
                "y": 22675
              label:
                text: Flur
                x: 22850
                "y": 22675
                offset_y: 35
              outline:
                - - 19700
                  - 20200
                - - 26000
                  - 20200
                - - 26000
                  - 25150
                - - 19700
                  - 25150
            - id: "17"
              icon:
                name: mdi:broom
                x: 22925
                "y": 26825
              label:
                text: Büro
                x: 22925
                "y": 26825
                offset_y: 35
              outline:
                - - 19450
                  - 25150
                - - 26400
                  - 25150
                - - 26400
                  - 28500
                - - 19450
                  - 28500
            - id: "18"
              icon:
                name: mdi:broom
                x: 28075
                "y": 26850
              label:
                text: Studio
                x: 28075
                "y": 26850
                offset_y: 35
              outline:
                - - 26250
                  - 25200
                - - 29900
                  - 25200
                - - 29900
                  - 28500
                - - 26250
                  - 28500
      

      Um jetzt ein zusätzliches Skript aufzurufen, müssen wir ein paar Parameter im YAML Code ergänzen. Diese fügen wird direkt unterhalb der vorherigen Eintragungen ( bei euch demnach nach euren Räumen mit den Koordinaten ) ein.

      Die Parameter fan_speed_saugen, fan_speed_wischen, mop_intensity_saugen. mop_intensity_wischen, sind nach den zuvor ausgelesenen Attributen aus den Entwicklerwerkzeugen einzusetzen. Bitte nicht einfach kopieren, denn jeder Roborock Roboter hat hier unter Umständen andere Namen in den Attributen!

        - name: UG Saugen & Wischen
          icon: mdi:layers-triple
          selection_type: ROOM
          max_selections: 10
          run_immediately: false
          variables:
            fan_speed_saugen: max
            fan_speed_wischen: "off"
            mop_mode: standard
            mop_intensity_saugen: "off"
            mop_intensity_wischen: moderate
          service_call_schema:
            service: script.sauge_und_wische_dynamisch
            service_data:
              vacuum_entity: "[[entity_id]]"
              segments: "[[selection]]"
              saugen: true
              wischen: true
              mop_mode_entity: select.roborock_s8_pro_ultra_mop_modus
              mop_intensity_entity: select.roborock_s8_pro_ultra_wisch_intensitat
              fan_speed_saugen: "[[fan_speed_saugen]]"
              fan_speed_wischen: "[[fan_speed_wischen]]"
              mop_mode: "[[mop_mode]]"
              mop_intensity_saugen: "[[mop_intensity_saugen]]"
              mop_intensity_wischen: "[[mop_intensity_wischen]]"
          predefined_selections:

      Jetzt fehlen und bei de predefined_selections: nur noch die Räume. Hier gibt es jetzt zwei Möglichkeiten. Entweder man kopiert sich die „predefined_selections“ aus dem vorherigen Code Abschnitt, oder aber man nutzt einen YAML-Anker. Ich nutze einen YAML-Anker, um Raumdefinitionen nicht doppelt pflegen zu müssen. Das reduziert die Fehleranfälligkeit und erleichtert spätere Anpassungen.

      Dazu geht an die erste Stelle mit“ predefined_selections“ im Code.

      und fügt dort folgendes nach dem Doppelpunkt ein:

      &seg

      Dann geht zum letzten Eintrag mit „predefined_selections“, also der Blog, den ihr zuvor eingefügt hattet.

      Dort fügt nun nach dem Doppelpunkt ein :

      *seg

      ein.

      Jetzt nur noch auf „Speichern“ drücken. Und der Abschnitt nach eurem letzten „predefined_selections“ wird automatisch mit den Eintragungen aus dem oberen Abschnitt gefüllt. Das Verfahren verringert aus meiner Sicht die Fehleranfälligkeit beim Kopieren und Einfügen.

      Um euch die Möglichkeit zu geben eure YAML Konfiguration der Vacuum Map Card abzugleichen, habt ihr hier nochmal den kompletten YAML Code meiner eigenen Konfiguration. Bitte beachtet, dass ihr eure eigene Raumkonfiguration erstellen müsst, da diese in meinem Setup auf unsere Raumkonfiguration in der Roborock App abgestimmt ist!

      type: custom:xiaomi-vacuum-map-card
      map_source:
        camera: image.s8_ug_untergeschoss_custom
      calibration_source:
        camera: true
      entity: vacuum.roborock_s8_pro_ultra
      vacuum_platform: Roborock
      map_modes:
        - template: vacuum_clean_zone
        - template: vacuum_goto
        - template: vacuum_clean_segment
          predefined_selections:
            - id: "16"
              icon:
                name: mdi:broom
                x: 22850
                "y": 22675
              label:
                text: Flur
                x: 22850
                "y": 22675
                offset_y: 35
              outline:
                - - 19700
                  - 20200
                - - 26000
                  - 20200
                - - 26000
                  - 25150
                - - 19700
                  - 25150
            - id: "17"
              icon:
                name: mdi:broom
                x: 22925
                "y": 26825
              label:
                text: Büro
                x: 22925
                "y": 26825
                offset_y: 35
              outline:
                - - 19450
                  - 25150
                - - 26400
                  - 25150
                - - 26400
                  - 28500
                - - 19450
                  - 28500
            - id: "18"
              icon:
                name: mdi:broom
                x: 28075
                "y": 26850
              label:
                text: Studio
                x: 28075
                "y": 26850
                offset_y: 35
              outline:
                - - 26250
                  - 25200
                - - 29900
                  - 25200
                - - 29900
                  - 28500
                - - 26250
                  - 28500
        - name: UG Saugen & Wischen
          icon: mdi:layers-triple
          selection_type: ROOM
          max_selections: 10
          run_immediately: false
          variables:
            fan_speed_saugen: max
            fan_speed_wischen: "off"
            mop_mode: standard
            mop_intensity_saugen: "off"
            mop_intensity_wischen: moderate
          service_call_schema:
            service: script.sauge_und_wische_dynamisch
            service_data:
              vacuum_entity: "[[entity_id]]"
              segments: "[[selection]]"
              saugen: true
              wischen: true
              mop_mode_entity: select.roborock_s8_pro_ultra_mop_modus
              mop_intensity_entity: select.roborock_s8_pro_ultra_wisch_intensitat
              fan_speed_saugen: "[[fan_speed_saugen]]"
              fan_speed_wischen: "[[fan_speed_wischen]]"
              mop_mode: "[[mop_mode]]"
              mop_intensity_saugen: "[[mop_intensity_saugen]]"
              mop_intensity_wischen: "[[mop_intensity_wischen]]"
          predefined_selections:
            - id: "16"
              icon:
                name: mdi:broom
                x: 22850
                "y": 22675
              label:
                text: Flur
                x: 22850
                "y": 22675
                offset_y: 35
              outline:
                - - 19700
                  - 20200
                - - 26000
                  - 20200
                - - 26000
                  - 25150
                - - 19700
                  - 25150
            - id: "17"
              icon:
                name: mdi:broom
                x: 22925
                "y": 26825
              label:
                text: Büro
                x: 22925
                "y": 26825
                offset_y: 35
              outline:
                - - 19450
                  - 25150
                - - 26400
                  - 25150
                - - 26400
                  - 28500
                - - 19450
                  - 28500
            - id: "18"
              icon:
                name: mdi:broom
                x: 28075
                "y": 26850
              label:
                text: Studio
                x: 28075
                "y": 26850
                offset_y: 35
              outline:
                - - 26250
                  - 25200
                - - 29900
                  - 25200
                - - 29900
                  - 28500
                - - 26250
                  - 28500
      

      Praxisbeispiel

      Nach der vollständigen Einrichtung lassen sich Räume über die Vacuum Map Card einfach auswählen. Wenn ich einzelne Bereiche oder mehrere Räume zu einer kombinierten Reinigung zusammenfasse, genügt ein Klick auf den jeweiligen Button. Der Roboter fährt die Bereiche nacheinander ab und führt, je nach Einstellung, Saugen und Wischen exakt in dieser Reihenfolge aus. Roborock

      Diese Lösung funktioniert zuverlässig mit allen Roborock-Modellen, die von der Core-Integration unterstützt werden.


      Fazit

      Durch die Kombination aus Roborock Core Integration, Roborock Custom Map Integration und Vacuum Map Card wird Home Assistant deutlich leistungsfähiger. Die Kartenansicht erleichtert die Steuerung im Alltag erheblich und bietet eine sehr klare Übersicht über alle Räume.

      Während bei uns zu Hause meine Frau die puristische Ansicht bevorzugt, nutze ich gerne die Vacuum Map Card mit den erweiterten Funktionen. Beide Varianten haben ihre Vorteile – entscheidend ist, was im Alltag besser funktioniert. Den Blogbeitrag zu meiner alten Lösung findet ihr hier:

      Blogbeitrag: Roborock in Home Assistant, Core Integration

      Wenn du eigene Ideen oder Optimierungen hast, freue ich mich über Rückmeldungen. Ergänzende Dateien und Konfigurationen findest du wie gewohnt auf meiner Blogseite.

      Unraid unter Proxmox installieren – Mein komplettes HomeLab-Setup

      👉 Direkt auf YouTube schauen und abonnieren:
      Smart Home & More auf YouTube

      Unraid unter Proxmox installieren – Mein komplettes HomeLab-Setup

      In diesem Beitrag möchte ich dir zeigen, wie ich Unraid unter Proxmox in meinem HomeLab betreibe – und warum dieses Setup für mich aktuell die beste Kombination aus Energieeffizienz, Flexibilität und Performance bietet. Ich nutze Proxmox schon lange als zentrale Virtualisierungsebene. Die Möglichkeit, darauf wiederum Unraid zu virtualisieren, ist für mich ein idealer Weg, moderne NAS-Funktionen mit der Flexibilität eines Linux-Hypervisors zu verbinden.

      Gerade im privaten Umfeld spielt Stromverbrauch eine immer wichtigere Rolle. Während ZFS mit TrueNAS im professionellen Einsatz für mich der absolute Favorit ist, lege ich zuhause Wert darauf, dass Platten zuverlässig schlafen können und nicht permanent durchlaufen müssen. Und genau dort punktet Unraid enorm.


      Warum ich Unraid unter Proxmox nutze

      Zu Beginn war ich selbst skeptisch, ob eine Virtualisierung von Unraid überhaupt sinnvoll ist. In der Praxis hat sich das aber schnell als echte Lösung herausgestellt. Ich habe einerseits die komplette Kontrolle von Proxmox inklusive Snapshots, VMs, Netzwerkmanagement und ZFS-Speicher für meine virtuellen Maschinen. Gleichzeitig nutze ich die Stärken von Unraid, nämlich ein extrem flexibles Array, Caching, schlafende HDDs, Docker-Management und eine sehr unkomplizierte Erweiterbarkeit.

      Was viele nicht wissen: Auf dem USB-Stick wird fast nie geschrieben. Der Stick dient in erster Linie als Boot-Medium, und lediglich Änderungen an der Konfiguration werden gespeichert. Dadurch ist er erstaunlich langlebig. Ich verwende Sticks mit garantiert eindeutiger GUID, da Unraid die Lizenz an diese ID bindet.


      Mein Hardware-Setup*

      In meinem Video habe ich ein UGREEN 4-Bay NAS als Beispiel genutzt. Mein produktives System ist das 8-Bay Modell mit deutlich mehr Kapazität. Die Vorgehensweise ist identisch, weshalb sich das Tutorial flexibel auf verschiedenste Hardware übertragen lässt.

      In meinem Testsystem stecken vier 4-TB-HDDs, zwei NVMe-SSDs im ZFS-Mirror (für Proxmox selbst) und eine virtuelle 250-GB-Disk, die ich später als Cache-Laufwerk für Unraid verwende. Zusätzlich habe ich den Arbeitsspeicher auf 48 GB erweitert, was im Alltag angenehm ist, aber für Unraid selbst gar nicht nötig wäre.


      Vorbereitung des USB-Sticks*

      Um Unraid nutzen zu können, lade ich das offizielle Flash-Tool herunter und spiele die aktuelle Version auf einen frisch formatierten Stick. Das geht wirklich unkompliziert. Wichtig ist nur, dass die GUID korrekt erkannt wird und der Stick zuverlässig von der Hardware gebootet werden kann. Danach stecke ich ihn in das UGREEN-NAS und kann in Proxmox direkt loslegen.

      Unraid unter Proxmox


      Die virtuelle Maschine in Proxmox

      Die VM für Unraid ist schnell erstellt. Ich vergebe ihr einen Namen, lasse das Installationsmedium leer und wähle als Maschinentyp q35, damit alle modernen PCIe-Funktionen verfügbar sind. Anschließend stelle ich 4 GB Arbeitsspeicher und zwei bis vier CPU-Kerne bereit. Eine virtuelle Festplatte lege ich an dieser Stelle noch nicht an, da Unraid später die tatsächlichen HDDs direkt erhält.

      Damit die VM korrekt startet, passe ich anschließend die Bootreihenfolge an. Zuerst soll der USB-Stick booten. Die restlichen Order sind eigentlich überflüssig.


      Passthrough von USB-Stick und SATA-Controller

      Das ist der wichtigste Schritt des gesamten Setups. Der USB-Stick wird anhand seiner Vendor- und Device-ID durchgereicht. Das sorgt dafür, dass Unraid beim Start genau diesen Stick erkennt – unabhängig davon, an welchem Port er steckt.

      Noch wichtiger ist das Durchreichen des SATA-Controllers. Ich wähle also unter den PCI-Geräten den kompletten Controller aus, aktiviere „Alle Funktionen“ und reiche ihn mit PCIe-Unterstützung an die VM durch. Das bedeutet: Unraid sieht die HDDs so, als wären sie direkt über SATA angeschlossen. Keine virtuelle Zwischenschicht, keine Geschwindigkeitseinbußen – echtes Bare-Metal-Feeling.

      Die zusätzliche virtuelle SCSI-Disk lege ich als SSD-emuliertes Laufwerk an. Sie dient später als Cache-Drive und trägt massiv dazu bei, dass die physikalischen HDDs lange schlafen können.


      Der erste Start von Unraid

      Nach dem Start bootet Unraid direkt vom USB-Stick. Sobald eine IP vergeben wurde, öffne ich die Weboberfläche und vergebe zuerst ein Administrator-Passwort. Danach starte ich die kostenlose Trial oder nutze meinen vorhandenen Lizenzschlüssel.

      Es ist wichtig zu wissen, dass die Lizenz fest an die eindeutige Stick-ID gebunden ist. Wechselst du den Stick, musst du die Lizenz übertragen – daher lohnt sich ein qualitativ hochwertiges Modell.


      Einrichtung des Arrays

      Jetzt geht es ans Herzstück von Unraid: Das Array. Ich entscheide mich bewusst für ein klassisches Setup mit Paritätsfestplatte. Für mich ist das der beste Kompromiss zwischen Sicherheit, Flexibilität und Energieverbrauch. Bei einem ZFS-System müssen alle Platten permanent laufen, da die Datenstruktur über mehrere Platten gleichzeitig verteilt ist. Unraid hingegen erlaubt es, Platten einzeln schlafen zu legen, solange sie nicht aktiv benötigt werden.

      Ich ordne die Platten der Reihe nach zu, vergebe die Parity-Disk und ordne zwei oder drei weitere HDDs als Datenlaufwerke zu. Das Cache-Drive definiere ich ebenfalls direkt, sodass größere Schreibvorgänge zunächst auf den schnellen virtuellen NVMe-Speicher gehen.

      Der erste Parity-Build dauert mehrere Stunden, was normal ist. Während dieser Zeit sollten möglichst keine Daten auf das Array geschrieben werden.


      Energie sparen mit Spindown und Cache

      Einer der Hauptgründe, warum ich Unraid privat so gerne nutze, ist der deutlich geringere Stromverbrauch. Sobald die Parität erstellt wurde, stelle ich das automatische Einschlafen der HDDs ein. Bei mir sind 15 Minuten ideal, aber 30 Minuten sind ebenfalls ein guter Wert, wenn regelmäßig kleinere Zugriffe stattfinden.

      Damit die Platten wirklich zuverlässig schlafen können, ist das Cache-Drive entscheidend. Es nimmt alle kurzfristigen Schreibvorgänge auf, und erst später bewegt der sogenannte „Mover“ die Daten auf die HDDs. Ich lasse den Mover bewusst zu Zeiten laufen, in denen meine PV-Anlage Strom liefert – idealerweise mittags.

      In Tests liegt mein System im Idle bei rund 30 W. Während der Parität waren es etwa 57 W. Mit größeren HDDs (7 200 U/min) steigt der Unterschied noch stärker an, weshalb ein stromsparendes Setup auf Dauer bares Geld spart.


      Netzwerk-Setup und 10-Gigabit-Anbindung

      Unraid bekommt bei mir zunächst eine DHCP-Adresse, die ich im Router fest verankere. Für besonders schnelle Kopiervorgänge nutze ich zusätzlich die 10-Gigabit-Schnittstelle des UGREEN-NAS. Diese reiche ich ebenfalls an die VM durch und vergebe ihr eine eigene statische IP.

      In meinen Tests erreiche ich über die 10-GbE-Verbindung bei Kopien auf den Cache problemlos Übertragungsraten von über 200 MB/s. Gerade wenn ich Daten auf das NAS oder zwischen VMs verschiebe, bringt das spürbare Vorteile. Ich weiß, die 10GbE Schnittstelle sollte ja viel mehr können. Aber meine VM , von der ich aus kopiere liegt auf langsamen SSD Speicher, da geht nicht mehr. Mit einem physischen Rechner und einer schnellen NVME lassen sich aber die Bandbereiten fast vollständig ausnutzen. Mir geht es hier aber primär um Energie und nicht um Performance.


      Docker, Apps und Benutzer

      Nachdem das System steht, aktiviere ich Docker und installiere das Community-Apps-Plugin. Damit stehen mir hunderte Anwendungen direkt mit einem Klick zur Verfügung – von Medienservern über Backuplösungen bis hin zu KI-Tools.

      Anschließend lege ich Benutzer und Freigaben an. Der typische Workflow sieht bei mir so aus, dass ich ein Share erst auf den Cache schreiben lasse und der Mover die Dateien später automatisch ins Array verschiebt. Das sorgt dafür, dass die HDDs über weite Strecken komplett schlafen können.


      Warum Unraid für mein HomeLab bleibt

      Auch wenn ich im professionellen Umfeld TrueNAS weiterhin sehr gerne einsetze, ist Unraid für mein HomeLab inzwischen die erste Wahl. Es erlaubt mir, flexibel Platten zu kombinieren, ja, es sind sogar Festplatten mit unterschiedlichen Größen möglich, sie einzeln schlafen zu lassen, Docker bequem zu verwalten und die Hardware sehr frei zu konfigurieren. Energietechnisch habe ich damit ein System, das im Leerlauf nicht mehr verbraucht als ein kleiner Büro-PC – und gleichzeitig jederzeit erweiterbar bleibt.

      Wenn du selbst ein HomeLab aufbaust und zwischen ZFS/TrueNAS und Unraid schwankst, kann ich dir nur empfehlen, einmal Unraid auszuprobieren. Gerade die Mischung aus Einfachheit, Flexibilität und Energieeffizienz macht das System im privaten Einsatz extrem attraktiv. Auch Unraid beherrscht mittlerweile ZFS. Aber der Fokus lag bei mir auf die Einsparung von Energie.

      Weitere Blogbeiträge zum Thema HomeLab:

      Ugreen NAS im Test – Mein Setup mit dem DXP8800 Plus & DXP4800 Plus für Smart Home und Proxmox

      Ugreen NAS mit Proxmox – So baust du dir dein eigenes HomeLab

      Ugreen NAS mit TrueNAS – mein Setup unter Proxmox, ZFS & SMB-Freigaben im Praxistest

      Home Assistant Präsenz­erkennung mit dem Bayesian Sensor – So denkt dein Smart Home in Wahrscheinlichkeiten

      👉 Direkt auf YouTube schauen und abonnieren:
      Smart Home & More auf YouTube

      Einleitung

      Kennst du das Problem, dass Home Assistant manchmal „denkt“, du bist nicht zu Hause – obwohl du gerade gemütlich auf der Couch sitzt?
      Oft liegt das daran, dass ein einzelner Sensor (z. B. dein Handy im WLAN) den Ausschlag gibt. Ist der Akku leer oder das WLAN kurz aus, geht Home Assistant davon aus: niemand zu Hause!

      Genau hier kommt der Bayesian Sensor ins Spiel. Er arbeitet nicht mit starrer Logik, sondern mit Wahrscheinlichkeiten. Damit wird deine Präsenz­erkennung so zuverlässig wie nie zuvor.

      In diesem Beitrag zeige ich dir Schritt für Schritt, wie du den Bayesian Sensor in Home Assistant einrichtest, konfigurierst und sinnvoll in deine Automatisierungen einbindest.


      Was ist der Bayesian Sensor?

      Der Bayesian Sensor (oft auch „Bayes-Sensor“ genannt) ist eine Integration in Home Assistant, die auf dem Bayes’schen Wahrscheinlichkeitsprinzip basiert.
      Das klingt erst mal nach Statistik, ist aber unglaublich nützlich: Der Sensor kombiniert verschiedene Zustände (z. B. WLAN-Verbindung, Tür geöffnet, Bewegung erkannt) und berechnet daraus eine Gesamtwahrscheinlichkeit, ob du zu Hause bist oder nicht.

      Das Entscheidende: Du kannst jedem Sensor eine eigene Gewichtung geben.
      So denkt dein Smart Home nicht mehr in „Ja/Nein“, sondern in „Wie wahrscheinlich ist es, dass jemand da ist?“

      Beispiel:

      • WLAN ist verbunden → +20 %
      • Companion App meldet „Zuhause“ → +30 %
      • Haustür wurde geöffnet → +10 %
      • Bewegung im Flur → +15 %

      ➡️ Ab einer bestimmten Schwelle (z. B. 60 %) wird der Zustand auf „anwesend“ gesetzt.


      Warum Wahrscheinlichkeiten besser sind als Logik

      Die klassische Logik („UND“ / „ODER“) in Home Assistant ist anfällig für Störungen.
      Wenn du zum Beispiel folgende Bedingung nutzt:

      „Nur wenn WLAN und Companion App beide ‘Home’ melden, gilt Anwesenheit als wahr“

      …dann reicht ein kleiner WLAN-Aussetzer – und dein ganzes System glaubt, du bist weg.
      Lichter gehen aus, Heizung wird abgesenkt, und du wunderst dich, warum alles dunkel wird.

      Mit dem Bayesian Sensor passiert das nicht.
      Er „denkt“ wie ein Mensch und gewichtet jede Information nach ihrer Verlässlichkeit.


      Einrichtung des Bayesian Sensors in Home Assistant

      🧭 Hinweis: Du findest die Integration unter
      Einstellungen → Geräte & Dienste → Integration hinzufügen → Bayesian Sensor

      Ich zeige dir hier die wichtigsten Schritte an einem Beispiel für die Präsenz­erkennung.


      Grundwahrscheinlichkeit festlegen

      Zuerst definierst du, wie wahrscheinlich es generell ist, dass du zu Hause bist.
      Wenn du z. B. werktags 8 Stunden arbeitest, kannst du sagen:

      Grundwahrscheinlichkeit : 40 % , dass ich zu Hause bin

      Die Wahrscheinlichkeitsschwelle habe ich auf 60% gelegt. D.h. wenn diese Schwelle überschritten wird, gilt der Zustand „zu Hause“ .


      Beobachtungen (Observations) hinzufügen

      Jetzt kommen deine Sensoren ins Spiel.
      Jede Beobachtung bekommt zwei Werte:

      • prob_given_true: Wahrscheinlichkeit, dass der Sensor „an“ ist, wenn du da bist
      • prob_given_false: Wahrscheinlichkeit, dass der Sensor „an“ ist, obwohl du nicht da bist

      Hier ein Beispiel für die Companion App:

      🧩 Damit sagst du: Wenn mein iPhone auf „home“ steht, bin ich mit 95 %iger Sicherheit zu Hause.


      WLAN-Sensor hinzufügen

      WLAN-Verbindungen sind nützlich, aber nicht immer zuverlässig (z. B. bei iPhones im Sleep-Modus).
      Ich nutze in meinem Setup Unifi, du kannst aber genauso gut die FritzBox-Integration oder einen Ping-Sensor verwenden.

      Beispiel-Template (mit 10-Minuten-Check):

      {% set wlan = states('device_tracker.unifi_default_54_eb_e9_bd_03_13') %}
                {% set last_upd = as_timestamp(states.device_tracker.unifi_default_54_eb_e9_bd_03_13.last_updated, 0) %}
                {% set age = as_timestamp(now()) - (last_upd or 0) %}
                {{ wlan == 'home' or (age < 10) }}
      


      Türkontakt als zusätzlicher Indikator

      Wenn du nach Hause kommst, öffnest du normalerweise eine Tür.
      Das kannst du clever nutzen, um die Wahrscheinlichkeit weiter zu erhöhen:

      {{ (as_timestamp(now()) - as_timestamp(states.binary_sensor.haustur_eg_contact.last_changed, 0)) < 120 }}
      

      Dadurch berücksichtigt der Sensor Türaktivität nur in den letzten zwei Minuten – perfekt für das Szenario „Nach Hause kommen“.


      Live-Test & Feinabstimmung

      Nachdem du alles eingerichtet hast, kannst du den Zustand in den Entwicklerwerkzeugen prüfen.
      Die Entität zeigt dir:

      Wenn du z. B. dein WLAN deaktivierst, sinkt der Wert leicht – bleibt aber über 0.6, solange andere Sensoren „Zuhause“ melden.

      So erreichst du endlich ein stabiles Verhalten, auch bei kleinen Aussetzern.


      Erweiterte Anwendungen

      Der Bayesian Sensor kann weit mehr als nur Präsenz­erkennung.
      Ein paar Ideen, wie du ihn nutzen kannst:

      • Nachtmodus aktivieren, wenn:
        • keine Bewegung mehr erkannt wird
        • alle Media Player aus sind
        • bestimmte Lichter aus sind
      • „Nicht zu Hause“-Modus, wenn:
        • niemand mehr aktiv ist
        • Tür längere Zeit geschlossen bleibt
        • Bewegungsmelder inaktiv sind

      Dadurch erhältst du fließende Zustände, die viel realistischer wirken als reine Logik.


      Kombination mit Automatisierungen

      Du kannst den Bayesian Sensor wie jeden anderen Binärsensor in Automationen nutzen:

      alias: Licht ausschalten bei Abwesenheit
      trigger:
        - platform: state
          entity_id: binary_sensor.tobias_zuhauses_bayes
          to: 'off'
      action:
        - service: light.turn_off
          target:
            area_id: wohnzimmer
      


      Tipps für dein Setup

      ✅ Starte mit 2–3 Beobachtungen und erweitere schrittweise
      ✅ Teste Änderungen über die Entwicklerwerkzeuge
      ✅ Achte auf realistische Gewichtungen (WLAN nie zu hoch gewichten)
      ✅ Nutze Templates, um zeitbasierte Bedingungen (z. B. „letzte 10 Minuten“) einzubauen
      ✅ Lies die Wahrscheinlichkeiten aus und beobachte den Verlauf über ein paar Tage


      Fazit – Warum der Bayesian Sensor so stark ist

      Der Bayesian Sensor ist für mich einer der unterschätztesten, aber mächtigsten Sensoren in Home Assistant.
      Er ermöglicht eine flexible, menschlich anmutende Logik – ohne komplizierte Node-RED-Flows oder YAML-Monster.

      Ich verwende ihn mittlerweile für:

      • Präsenz­erkennung
      • Nachtmodus
      • Energiesteuerung (z. B. „Wahrscheinlichkeit, dass jemand gleich heimkommt“)
      • und Szenarien mit mehreren Personen

      👉 Probiere es aus – du wirst schnell merken, wie stabil deine Automatisierungen werden.

      Schreib mir gerne in die Kommentare, wofür du den Bayesian Sensor nutzt oder welche Kombinationen bei dir besonders gut funktionieren.


      Interne Links


      Ugreen NAS mit TrueNAS – mein ehrlicher Erfahrungsbericht im HomeLab

      👉 Direkt auf YouTube schauen und abonnieren:
      Smart Home & More auf YouTube

      Ugreen NAS mit TrueNAS

      In meiner HomeLab-Reihe wollte ich unbedingt ausprobieren, wie sich ein Ugreen NAS mit TrueNAS in der Praxis schlägt.
      Ich habe ja bereits gezeigt, wie man Proxmox auf dem Ugreen NAS installiert und welche Möglichkeiten sich damit ergeben. Doch die meisten, die ein solches System aufbauen, wünschen sich auch klassische NAS-Funktionen: Datenspeicher, SMB-Freigaben, Backups und ein stabiles Dateisystem.

      In diesem Beitrag zeige ich dir Schritt für Schritt,
      wie ich TrueNAS als virtuelle Maschine unter Proxmox eingerichtet habe,
      welche Fallstricke es gab – und warum ich mich am Ende gegen TrueNAS in meinem HomeLab entschieden habe.


      Warum überhaupt TrueNAS?

      Ich bin ein großer Fan modularer Systeme. Proxmox läuft auf meinem Ugreen DXP4800 Plus bereits als Hypervisor, und damit lassen sich wunderbar virtuelle Maschinen oder Container verwalten.
      Aber ein Hypervisor allein ersetzt kein NAS. Deshalb lag es nahe, ein TrueNAS-System zu virtualisieren, um so die Vorteile beider Welten zu kombinieren:
      Virtualisierung, Datensicherheit, ZFS-Pool, Freigaben – alles in einem Gerät.

      Das Ganze ist kein Sponsored-Post. Ugreen hat mir zwar die Geräte (DXP4800 Plus und DXP8800 Plus) kostenlos zur Verfügung gestellt, aber die Entscheidung, wie ich sie einsetze und bewerte, liegt komplett bei mir.

      Transparenz

      Die in diesem Blogbeitrag vorgestellten Links sind Affiliate Links. D.h. , wenn ihr über diesen Link ein Produkt erwerbt, dann erhalte ich eine kleine Provision, ihr zahlt aber nicht mehr. Ihr unterstützt damit meine Arbeit. Herzlichen Dank dafür.


      Vorbereitung & TrueNAS-Image

      Zuerst benötigst du das Installations-Image. Das bekommst du auf der offiziellen TrueNAS-Website unter
      👉 Support → Resources → TrueNAS Community Edition

      Ein Login ist nicht nötig – einfach „No thank you, I have already signed up“ wählen und die neueste Stable-Version herunterladen.
      Ich habe das Image anschließend in meinen Download-Ordner gelegt, um es danach in Proxmox hochzuladen.


      Proxmox-Grundlage auf dem Ugreen NAS

      In meinem vorherigen Beitrag habe ich bereits erklärt, wie du Proxmox auf dem Ugreen NAS installierst.
      Falls du das noch nicht gesehen hast, findest du den Artikel hier:
      👉 Proxmox auf Ugreen NAS installieren

      Für dieses Setup verwende ich diesmal mein DXP4800 Plus.

      Das größere 8800-Modell läuft bei mir bereits produktiv – und genau dort habe ich eine andere Lösung im Einsatz, über die ich später noch sprechen werde.

      Mein DXP4800 Plus habe ich um 48 GB RAM erweitert (zusätzlich zu den 8 GB, die ab Werk verbaut sind) und zwei 2 TB NVMe-SSDs verbaut.

      Darauf läuft ein ZFS-RAIDZ1-Pool, um Redundanz zu haben.
      Das ist zwar kein Muss, aber für mich aus Sicherheitsgründen einfach sinnvoll.


      TrueNAS-Image in Proxmox hochladen

      Ich lade also das zuvor heruntergeladene TrueNAS-Image in Proxmox hoch.
      Das geht erstaunlich schnell – und schon liegt das ISO im lokalen Storage bereit.

      Kleiner Tipp:
      Wenn du später ähnliche Projekte machst, lohnt sich eine eigene ISO-Library in Proxmox, damit du deine Images zentral verwalten kannst.


      Virtuelle Maschine anlegen

      Jetzt wird’s spannend: In Proxmox lege ich eine neue virtuelle Maschine an.

      1. Name: TrueNAS
      2. OS: das hochgeladene ISO-Image auswählen
      3. System: Typ Q35
      4. Bios: Default (SeaBIOS)
      5. Disk: 64 GB (Writeback aktiviert, wenn NVMe-Storage)
      6. CPU: 2 Cores
      7. RAM: 8 GB
      8. Netzwerk: Standard (virtio)

      Damit ist die Grundkonfiguration fertig.
      Bevor ich starte, habe ich noch einen wichtigen Schritt gemacht:
      Ich habe den SATA-Controller des Ugreen NAS per PCI-Passthrough an die VM durchgereicht.
      Nur so kann TrueNAS später die physischen Festplatten erkennen – inklusive SMART-Werte.


      Controller-Passthrough & Festplatten

      Beim DXP4800 Plus funktioniert das problemlos.
      Beim DXP8800 Plus gibt es zwei Controller, aber nur der erste lässt sich durchreichen.
      Für mein Setup war das kein Problem, da ich ohnehin nur vier Platten brauchte und die anderen Platten für andere Anwendungen im Konzept gedacht sind.

      Damit TrueNAS auch später nested Virtualisierung oder Apps sauber ausführen kann, wähle ich bei der CPU den Typ „host“ – das ermöglicht maximale Kompatibilität.

      Danach starte ich die VM – und der Installer begrüßt mich mit dem bekannten Menü.


      TrueNAS Installation

      Ich wähle „Install/Upgrade“, nehme die zuvor angelegte virtuelle Disk (64 GB) als Ziel und vergebe ein Passwort.
      Wichtig:
      Der Login-User heißt seit einiger Zeit truenas_admin (nicht mehr root).

      Nach kurzer Installationszeit startet das System neu und zeigt mir eine IP-Adresse – in meinem Fall 192.168.100.152.
      Diese rufe ich im Browser auf, logge mich ein und bin direkt auf der Weboberfläche.


      Fehler & Korrektur – Controller nachreichen

      Beim ersten Start sehe ich allerdings keine Festplatten.
      Grund: Ich hatte vergessen, den Controller tatsächlich zuzuweisen.
      Also VM ausschalten, in die Hardware-Sektion gehen und folgendes hinzufügen:

      Add → PCI Device → Raw Device → ASMedia Serial ATA AHCI Controller → All Functions aktivieren → Add

      Nach dem Neustart sind alle Platten sichtbar – inklusive Seriennummern und SMART-Funktionen.


      ZFS-Pool anlegen

      Jetzt geht es an das Herzstück: den ZFS-Pool.
      Ich erstelle einen neuen Pool mit dem Namen zfspool und wähle RAIDZ1 als Layout.
      Das bietet mir Datensicherheit, weil eine Platte ausfallen darf, ohne dass Daten verloren gehen.

      Zur Erklärung:
      Bei vier 8-TB-Platten ergibt sich netto etwa 24 TB nutzbarer Speicher – eine Platte dient der Ausfallsicherheit.

      Ich verzichte in meinem Fall auf zusätzliche Cache- oder Log-Drives, da mein Fokus auf Datensicherheit, nicht auf Performance liegt. Außerdem brauche ich die NVMEs in meinem Proxmox Setup noch für weitere virtuelle Maschinen 🙂


      SMB-Freigaben & Benutzer

      Anschließend lege ich einen neuen Benutzer an (home) und vergebe ein Passwort.
      Unter Datasets wähle ich meinen Pool aus und erstelle ein Dataset namens Backup.
      Als Preset wähle ich SMB, damit automatisch der passende Dienst aktiviert wird.

      Nach dem Speichern fragt mich TrueNAS, ob der SMB-Service gestartet werden soll – natürlich bestätige ich das.
      Im nächsten Schritt weise ich meinem Benutzer die entsprechenden Berechtigungen zu:

      Edit → Add Item → User auswählen → Apply permissions recursively → Save Access Control List

      Danach kann ich auf meinem Windows-Rechner einfach \\192.168.100.152 eingeben, mich mit home anmelden – und sehe sofort meine Freigabe.

      Beim Testkopieren erreiche ich die volle Gigabit-Geschwindigkeit, also rund 110 MB/s.


      Performance & Stabilität

      Die Performance ist beeindruckend.
      Selbst bei gleichzeitigen Zugriffen reagiert das System stabil und flüssig.
      ZFS ist bekannt für seine Datensicherheit und Integrität, und das merkt man hier deutlich.

      Aber: Jede Medaille hat zwei Seiten.
      Denn ZFS hat einen hohen RAM-Bedarf und sorgt dafür, dass alle Platten aktiv bleiben, sobald auf den Pool zugegriffen wird.


      Energieverbrauch – mein ehrliches Fazit

      Ich habe das System mit meinem Home Assistant gemessen:
      Das Setup verbraucht rund 48 Watt im Idle-Betrieb.

      Das liegt daran, dass bei einem ZFS-Pool alle Festplatten ständig aktiv sind.
      Selbst wenn nur auf eine Datei zugegriffen wird, laufen alle vier HDDs mit.
      Rechnet man das hoch, sind das schnell 20–30 W Mehrverbrauch gegenüber einem Setup mit Spindown aller Platten. Und gerade bei einem Datengrab braucht man nicht 24/7 Zugriff und die Platten könnten eigentlich in den Spindown gehen.

      In meinem HomeLab möchte ich aber effizient arbeiten.
      Darum habe ich mich entschieden, künftig auf eine andere Lösung zu setzen: Unraid.
      Auch hier würde sich eine ZFS Infrastruktur umsetzen lassen, aber mit den gleichen Thema der Energieeffizienz. Unraid bietet aber auch die Möglichkeit ein Array anzulegen. Das hat zwar keine native ZFS-Struktur, erlaubt aber ebenfalls Datensicherheit über eine Paritätsplatte – und lässt ungenutzte Laufwerke schlafen.

      Über meinen Wechsel zu Unraid erzähle ich ausführlich im nächsten Teil der Serie. Wenn dich das interessiert, abonniere meinen Kanal auf youtube und verfolge meine Blog Beiträge.


      Fazit: TrueNAS auf dem Ugreen NAS – stark, aber nicht für jeden

      Mein Test hat gezeigt:
      Ein Ugreen NAS mit TrueNAS unter Proxmox ist absolut machbar – und technisch spannend.
      Die Einrichtung ist klar, das System stabil und durch ZFS sehr sicher.

      Aber für meinen Einsatzzweck im HomeLab war es nicht die perfekte Lösung.
      Der Energieverbrauch ist mir einfach zu hoch, und die permanente Aktivität aller Platten passt nicht zu meinem Konzept eines stromsparenden Setups.

      Für alle, die ein reines Daten-NAS mit Fokus auf Stabilität und Redundanz suchen, ist TrueNAS eine hervorragende Wahl.
      Wer dagegen Energieeffizienz und Flexibilität im Vordergrund hat, wird mit Unraid oder sogar Proxmox-LXC-Storage-Containern glücklicher.

      Ich persönlich bleibe bei meinem Proxmox-Host, kombiniere aber künftig virtuelle Maschinen, Container und ein stromsparendes Storage-System.


      Weiterführende Links


      Schlusswort

      Wenn du gerade ein Ugreen NAS besitzt oder planst, dir eins zuzulegen, dann ist TrueNAS auf jeden Fall einen Blick wert.
      Die Einrichtung macht Spaß, du lernst viel über Storage-Konzepte, und du kannst alles flexibel virtualisieren.

      Aber wie so oft gilt: Die perfekte Lösung hängt vom eigenen Ziel ab.
      Ich wollte mein HomeLab möglichst effizient gestalten – und TrueNAS hat mir gezeigt, wo die Grenzen liegen.

      Falls du Fragen hast, schreib’s gerne in die Kommentare bei Youtube oder schau auf meinem YouTube-Kanal vorbei – dort findest du das komplette Video mit allen Details.


      💤 Home Assistant Nachtmodus mit Labels – einfache Struktur statt komplizierter Gruppen

      👉 Direkt auf YouTube schauen und abonnieren:
      Smart Home & More auf YouTube

      🌙 Warum ich den Nachtmodus neu gedacht habe

      Es war wieder Zeit für die Automatisierung des Monats – und diesmal wollte ich bewusst etwas Einfaches zeigen. Etwas, das wirklich jeder in Home Assistant umsetzen kann, ohne sich durch komplexe YAML-Strukturen oder unübersichtliche Gruppen zu kämpfen.

      Ich nenne es die „Nachtmodus-mit-Labels-Methode“. Sie hilft, dein Smart Home strukturiert, flexibel und wartungsarm zu gestalten. Und das Beste: Du kannst sie in wenigen Minuten umsetzen.


      🏠 Was soll der Nachtmodus eigentlich tun?

      Der typische Nachtmodus schaltet im Smart Home:

      • alle Lichter aus,
      • fährt die Rollos herunter,
      • regelt die Heizung runter
      • und deaktiviert unnötige Geräte.

      Doch wie immer steckt der Teufel im Detail: Nicht jedes Gerät soll sich ausschalten.
      Mein Server zum Beispiel hängt an einem Smart Plug – wenn der ausginge, wäre es schnell vorbei mit Home Assistant. 😅

      Früher habe ich das über Gruppen geregelt. Aber Gruppen müssen ständig gepflegt und aktualisiert werden, sobald neue Geräte hinzukommen oder sich Namen ändern. Und das ist genau der Punkt, wo Labels die perfekte Lösung sind.


      🏷️ Labels – der Gamechanger für Automatisierungen

      Labels sind in Home Assistant ein oft übersehenes, aber mächtiges Feature.
      Du findest sie unter
      Einstellungen → Bereiche, Labels & Zonen → Labels

      Hier kannst du jedem Gerät oder jeder Entität ein oder mehrere Labels zuweisen – und später in Automatisierungen darauf zugreifen.

      Ich habe mir also ein Label mit dem Namen „Nachtmodus“ angelegt, mit Symbol 🌙 und einer passenden Farbe. Anschließend weise ich dieses Label einfach allen Geräten zu, die beim Aktivieren des Nachtmodus reagieren sollen:

      • Lampen
      • Wandlampe im Büro
      • Rollos im Schlafzimmer
      • Thermostat im Büro

      Fertig – kein manuelles Gruppieren mehr nötig. Ihr verseht nun alle Geräte, die ihr in der Nacht in irgendeiner Art im Zustand verändern wollt mit diesem Label.


      💡 Geräte mit Labels verbinden

      Damit du den Überblick behältst, kannst du Labels direkt über das Zahnrad-Symbol im Geräte-Menü vergeben.
      Ich gehe dabei Schritt für Schritt vor:

      1. Licht auswählen → Zahnrad → Label „Nachtmodus“ hinzufügen
      2. Schalter oder Steckdose → ebenfalls Label hinzufügen
      3. Thermostat → Label „Nachtmodus“ zuweisen
      4. Optional: Abdeckung (Rollo) → Label ergänzen

      Ihr könnt auch weitere Geräte, wie ein Türschloss, Mediaplayer etc.. hinzufügen.

      Damit ist die Vorarbeit abgeschlossen – jetzt kann die Automatisierung kommen.


      ⚙️ Die Automatisierung für den Nachtmodus erstellen

      Gehe zu
      Einstellungen → Automatisierungen & Szenen → Neue Automatisierung erstellen.

      Jetzt kommt der wichtigste Teil:
      Ich baue eine Automatisierung, die nicht auf feste Entitäten zugreift, sondern nur auf Labels. Dadurch bleibt sie dynamisch.

      Schritt 1: Auslöser definieren

      Der Auslöser kann frei gewählt werden:

      • ein Schalter am Bett,
      • ein Zigbee-Button,
      • ein Dashboard-Taster,
      • oder eine Sprachsteuerung über Alexa.

      Ich verwende meist einen einfachen Schalter und nenne den Auslöser „Nachtmodus aktivieren“.

      Schritt 2: Aktionen festlegen

      Jetzt werden alle Aktionen hinzugefügt, die über das Label gesteuert werden:

      service: light.turn_off
      target:
        label: Nachtmodus
      

      Dasselbe Prinzip gilt auch für andere Gerätetypen:

      service: switch.turn_off
      target:
        label: Nachtmodus
      

      service: climate.set_temperature
      target:
        label: Nachtmodus
      data:
        temperature: 15
      

      alias: automatischer Nachtmodus
      description: ""
      triggers: []
      conditions: []
      actions:
        - action: light.turn_off
          metadata: {}
          data: {}
          target:
            label_id: nachtmodus
        - action: switch.turn_off
          metadata: {}
          data: {}
          target:
            label_id: nachtmodus
        - action: cover.close_cover
          metadata: {}
          data: {}
          target:
            label_id: nachtmodus
        - action: climate.set_temperature
          metadata: {}
          data:
            temperature: 10
          target:
            label_id: nachtmodus
      mode: single
      

      Dadurch schaltet Home Assistant alle Geräte mit dem Label „Nachtmodus“ automatisch aus oder regelt sie herunter.
      Wenn du später neue Geräte hinzufügst, musst du nur das Label vergeben – keine Änderungen an der Automatisierung nötig!


      🔍 Testen und Feinschliff

      Ich empfehle, den Nachtmodus zunächst manuell über die drei Punkte in der Automatisierung auszuführen, um zu prüfen, ob alle Geräte reagieren.
      Bei mir gingen sofort alle Lichter aus, die Heizung wurde heruntergeregelt – perfekt.

      Zur Kontrolle kannst du in den Entitäten nach „Nachtmodus“ filtern. Dort siehst du alle zugehörigen Geräte und deren aktuellen Status.


      📈 Warum Labels so viel besser sind als Gruppen

      Hier die wichtigsten Vorteile auf einen Blick:

      Weniger Pflegeaufwand – keine Gruppen mehr anpassen
      Mehr Flexibilität – ein Gerät kann mehreren Labels angehören (z. B. Nachtmodus, Urlaub, Energiesparen)
      Bessere Übersicht – klare Struktur im Gerätemanagement
      Automatisierungen bleiben unverändert – selbst bei vielen Änderungen im System

      Ich nutze Labels inzwischen nicht nur für den Nachtmodus, sondern auch für:

      • Urlaubsmodus
      • Energiesparmodus
      • Szenensteuerungen
      • Zeitgesteuerte Aktionen


      🌅 Und am nächsten Morgen?

      Natürlich lässt sich die gleiche Logik auch für den Morgenmodus anwenden.
      Einfach ein zweites Label anlegen, z. B. „Morgenmodus“, und damit die gewünschten Aktionen starten:

      • Lichter im Flur an
      • Rollos hoch
      • Heizung auf Komforttemperatur

      So baust du dir Schritt für Schritt ein modulares Smart Home-System, das leicht zu pflegen ist und immer nachvollziehbar bleibt.


      💬 Fazit – Einfach, klar und wirkungsvoll

      Mit dem Home Assistant Nachtmodus über Labels erreichst du maximale Kontrolle bei minimalem Aufwand.
      Du kannst neue Geräte in Sekunden integrieren, behältst die Übersicht und brauchst keine YAML-Monster oder endlosen Gruppenlisten mehr.

      Für erfahrene Nutzer ist es ein effizienter Weg, bestehende Strukturen zu optimieren.
      Für Einsteiger ist es die perfekte Methode, Automatisierungen endlich zu verstehen – intuitiv, visuell und sauber aufgebaut.


      🤝 Community-Tipp

      🔗 Forum: https://community-smarthome.com
      💬 Discord: https://smarthomeundmore.de/discord

      Dort findest du viele engagierte Mitglieder, die bei Fragen rund um Home Assistant, Automatisierungen und MQTT , EVCC schnell weiterhelfen.

      Ugreen NAS mit Proxmox – So baust du dir dein eigenes HomeLab

      👉 Direkt auf YouTube schauen und abonnieren:
      Smart Home & More auf YouTube

      Einführung

      Ugreen hat mit den NAS-Systemen DXP4800 Plus, DXP6800 Plus, DXP8800 Plus und weiteren Varianten richtig starke Geräte auf den Markt gebracht. Was die Hardware angeht, bekommt man für den Preis wirklich viel Leistung. Beim Ugreen OS selbst war ich allerdings für mein Anforderungsprofil nicht ganz glücklich – zu eingeschränkt, zu wenig flexibel. Das trifft aber bei mir auf alle NAS Systeme zu… Also habe ich mir gedacht: Das muss besser gehen.

      In diesem Beitrag zeige ich dir daher, wie ich das Ugreen OS sichere, Proxmox auf dem NAS installiere und daraus ein durchdachtes HomeLab-Konzept aufbaue. Wir sprechen also nicht nur über eine Installation – wir erschaffen gemeinsam ein System, das flexibel, performant und zukunftssicher ist.

      Transparenz: UGreen hat mir die NAS – Systeme kostenlos zur Verfügung gestellt. Die Produkt Links in diesem Beitrag sind Affiliate Links. Ihr zahlt nicht mehr, ich erhalte allerdings eine kleine Provision.

      Ich habe in meinem Setup das UGreen DXP 8800 Plus als Hauptsystem verwendet.

      Angebot


      UGREEN NASync DXP8800 Plus 8-Bay NAS Server, Intel i5-1235U 10-Kern, 8GB DDR5, 128GB SSD, 2×10GbE, 2×M.2 NVMe, 8K HDMI, 2×Thunderbolt 4, Kompatibel mit Drittanbieter HDD/SSD (Diskless)

      • Zwei 10GbE-Netzwerkanschlüsse: Zwei 10GbE-Hochgeschwindigkeitsnetzwerkanschlüsse, die zu einer Bandbreite von 20 G zusammengefasst werden können, um Downloadgeschwindigkeiten von bis zu 2500 MB/s zu erreichen. Große Dateien lassen sich problemlos übertragen. Die Last zwischen den beiden Portverbindungen kann dynamisch angepasst und ausgeglichen werden, um die Übertragungseffizienz zu verbessern.
      • Beispiellose Verarbeitungsleistung: Mit einem Intel Core i5-Prozessor der 12. Generation mit 10 Kernen und 12 Threads wird die Verarbeitungsleistung im Vergleich zu früheren Prozessoren sprunghaft verbessert.
      • 8-Bay, 256 TB riesiger Datenspeicher: Ausgestattet mit acht SATA- und zwei M.2 NVMe-Laufwerkschächten verfügt das NASync DXP8800 Plus über eine maximale Speicherkapazität von bis zu 256 TB. Speichern Sie Tausende von HD-Filmen, Bildern und Dokumenten und machen Sie NASync zu einer Filmbibliothek, einem Fotoalbum und einem Dateispeicherplatz in einem.
      • Eine umfassende App: Anstatt einzelne Anwendungen für bestimmte Funktionen herunterzuladen, integriert die NAS-App diese Funktionen an einem Ort. Greifen Sie von einem praktischen Ort aus auf Speichermanager, Dateien, Fotos und mehr zu.
      • Professionelle Datensicherheit: Im Vergleich zu Cloud-Laufwerken ermöglicht NASync Benutzern, große Mengen persönlicher Daten auf vertrauenswürdigen lokalen Geräten zu speichern, wodurch Datenverlust und Überwachung weitestgehend verhindert werden. Datenübertragung und Konten können mit professioneller Verschlüsselung und Multi-Faktor-Authentifizierung vollständig geschützt werden.

      Wenn ihr in Summe nicht so viel Leistung benötigt, dann lässt sich auch ein sehr gutes Home Lab Setup mit dem DXP 4800 Plus umsetzen. Die ausgeführten Schritte bleiben die Gleichen. Ich will hier gar nicht im Detail auf die Hardware eingehen, dazu gibt es jede Menge guter Reviews auf Youtube. Mir geht es hier um die technische Umsetzung eines Home Lab Konzepts.

      Angebot


      UGREEN NASync DXP4800 Plus 4-Bay Desktop NAS, Intel Pentium Gold 8505 5-Core CPU, 8GB DDR5 RAM, 128G SSD, 1 * 10GbE, 1 * 2,5GbE, 2*M.2 NVMe-Steckplätze, 4K HDMI, Network Attached Storage (Diskless)

      • 12. Gen 5-Kern Intel Prozessor: Diese leistungsstarke CPU von Intel bietet ein außergewöhnlich flüssiges Erlebnis und sorgt für einen erheblichen Leistungszuwachs im Vergleich zu früheren Generationen.
      • Benutzerfreundliche App: Verwalte deinen Speicher und greife von all deinen Geräten auf deine Dateien zu, ganz einfach mit unserer maßgeschneiderten Software – und das alles ohne mehrere Tools oder komplizierte Drittanbieter-Software. Verfügbar für Android, iOS, Windows, Mac, Webbrowser und Smart-TVs.
      • 4 Bays und maximal 136TB: Die vier SATA-Bays unterstützen jeweils bis zu 30TB. Zusätzlich können zwei kompakte M.2 NVMe SSDs mit jeweils bis zu 8TB installiert werden (für SSD-Caching oder zusätzlichen schnellen Speicher). Bei vollständiger Ausnutzung aller Steckplätze beträgt die maximale Kapazität beeindruckende 136TB.
      • Blitzschnelle 10GbE- und 2.5GbE-Netzwerkanschlüsse: Der NASync DXP4800 Plus bietet Datenraten von bis zu beeindruckenden 1250 MB/s über zwei separate Anschlüsse. Ideal für alle, die eine schnelle und reibungslose Übertragung von 4K-Videos und großen Dateien benötigen.
      • Professionelle Datensicherheit: Mit sicherer Verschlüsselung sind Benutzerkonten und Daten vollständig geschützt.


      Mein Plan: Vom NAS zum HomeLab

      Ich wollte nicht einfach nur ein NAS betreiben, sondern eine Plattform schaffen, auf der virtuelle Maschinen, Backups und verschiedene Dienste parallel laufen können. Ugreen liefert mit dem DXP8800 Plus eine hervorragende Basis – drei NVMe-Slots, starke Hardware und genügend Platz für mehrere Festplatten.

      Geliefert wird das NAS mit 8GB RAM und einer NVME , wo sich das UGREEN OS drauf befindet. Bei mir war eine 128 GB Festplatte verbaut, was für ein Proxmox zunächst ausreichend ist. Die beiden anderen Slots habe ich mit NVME Festplatten von Samsung belegt.

      Mein Ziel war:

      • Proxmox als Hypervisor installieren
      • Unraid oder TrueNAS als virtuelles NAS betreiben
      • Backup-Server direkt integrieren
      • alle VMs zentral sichern

      Da mir die 8GB RAM für meinen Anwendungsfall nicht genügten, habe ich den RAM um 48GB RAM erweitert. Achtet dabei darauf, dass ihr DDR5 RAM mit 4800 MHz verwendet. Ich habe sehr positive Erfahrungen mit Corsair Vengeance gemacht. Es gehen aber genauso auch andere Hersteller. Als Hinweis sei noch erwähnt, dass in den Spezifikationen von UGREEN angegeben ist, dass lediglich 2×32 GB RAM funktionieren. Das ist aber nicht der Fall, es funktionieren auch 2×48 GB RAM. Ich habe mit einem 48GB RAM Riegel angefangen und zusätzlich den 8GB Riegel belassen. Wenn mein Bedarf an RAM mal steigen sollte, kommt ein weiterer Riegel hinzu.


      CORSAIR Vengeance SODIMM DDR5 RAM 48GB (1x48GB) 4800MHz CL40-40-40-77 1.10V Intel XMP 3.0 Laptop-Speicher – Schwarz (CMSX48GX5M1A4800C40)

      • Kompatibel mit nahezu allen Intel-Systemen: Der branchenübliche SODIMM-Formfaktor ist mit einer Vielzahl der gängigen Gaming- und -Performance-Laptops sowie Kompakt-PCs und mit Intel NUC-Kits kompatibel
      • Einfache Installation: Für die Installation in den meisten Laptops wird lediglich ein Schraubendreher benötigt
      • Maximaler Geschwindigkeitsschub: Für kürzere Ladezeiten, Multitasking und weitere Funktionen stellt VENGEANCE SODIMM in kompatiblen Systemen automatisch auf die maximal unterstützte Geschwindigkeit um
      • Umfassend getestete Zuverlässigkeit: Die Module sind gründlich geprüft und getestet, um eine erstklassige Leistung und Zuverlässigkeit zu gewährleisten
      • Kompatibilität: Intel 13th or 14th Gen Mobile-CPUs

      Damit das funktioniert, beginne ich mit einem vollständigen Backup des Ugreen-Betriebssystems, bevor es gelöscht wird.


      Schritt 1: Backup des Original-Systems mit Clonezilla

      Bevor man irgendetwas verändert, sollte man das Ugreen OS vollständig sichern. Ich habe dafür Clonezilla verwendet – ein zuverlässiges Open-Source-Tool, das ein komplettes Image der Festplatte erstellt. Man kann auch die vorhandene NVME mit dem UGreen OS ausbauen und eine andere NVME dafür einbauen, aber warum sollte ich Ressourcen verschwenden, wenn ich doch mit einem Backup ebenfalls das Betriebssystem sauber gesichert bekomme und diesen Zustand jederzeit wiederherstellen kann ?

      Vorgehen:

      1. Über KVM-over-IP greife ich auf das NAS zu.
        • Das Gerät simuliert Tastatur, Maus und Monitor über den Browser.
        • Ich kann so ins BIOS oder direkt auf den Installationsprozess zugreifen.

      Angebot


      GL.iNet KVM-Fernsteuerung über das Internet, 4K-Auflösung, Tailscale,Fernsteuerung von Tastatur, Video und Maus – ideal für Home-Office, Rechenzentren, IT-Verwaltung und industrielle Anwendungen

      • 【Zuverlässige Fernsteuerung】 Starten Sie defekte Computer neu, installieren Sie das Betriebssystem per BIOS-Steuerung und schalten Sie sie mit einer Zubehörerweiterung sogar aus der Ferne ein. Nie wieder müssen Sie Rechenzentren aufsuchen, um abgestürzte Systeme zu reparieren – ideal für IT-Teams und Smart-Home-Enthusiasten.
      • 【Universelle Kompatibilität & einfache Einrichtung】 Mühelose Verbindung zu Laptops, Desktops, Servern, Industrie-PCs und Streaming-Geräten. Einfache Ein-Klick-Verbindung per App – der zu steuernde Computer benötigt keine zusätzliche Software.
      • 【4K Auflösung & Audio-Unterstützung】 Unterstützung für Gigabit-Netzwerkzugriff. Erleben Sie Desktop-Qualität mit einer Auflösung von 3840 x 2160 bei 30 Hz und einer Verzögerung von < 60 ms. Mit synchronisiertem Audio fühlt sich die Arbeit aus der Ferne so natürlich an, als wäre man vor Ort.
      • 【Sofortige Dateiübertragung】 Bewältigen Sie den Nachteil herkömmlicher KVM-Geräte, Dateien nicht übertragen zu können: Unsere Lösung ermöglicht die nahtlose Dateifreigabe zwischen Geräten – keine lästigen Synchronisierungsprobleme mehr bei der Fernarbeit.
      • 【Zugriff überall und jederzeit】 Sichern Sie sich ständigen Fernzugriff auf Ihre Computer und steigern Sie Ihre Produktivität – egal, ob Sie zu Hause oder unterwegs sind. Geeignet für die Fernarbeit und zum Verwalten mehrerer Computer.

      Ich nutze gerne ein KVM over IP Device, weil ich oftmals keine Lust habe einen extra Monitor , Tastatur und Maus anzuschließen. So kann ich alles bequem über meinen PC im Browser konfigurieren.

      Der nächste Schritt ist nun das Clonezilla Image zu booten und wie in im Video gezeigt die Einstellungen vorzunehmen und ein Backup des UGreen OS durchzuführen. Das Clone Zilla Boot Image findet ihr hier . Ich habe die „stable“ Variante gewählt. Als Speicherziel für das Backup habe ich auf einem anderen NAS eine SMB/CIFS Freigabe erstellt. Hier könnt ihr jede beliebige Freigabe verwenden.

      Achte unbedingt darauf, im BIOS den Watchdog zu deaktivieren, sonst startet das NAS mitten in der Sicherung neu.

      Nach Abschluss hatte ich ein Image von etwa 3,4 GB Größe – klein, aber mit allem Wichtigen. Damit kann ich jederzeit das Originalsystem wiederherstellen.


      Schritt 2: Installation von Proxmox VE 9.0.1

      Jetzt geht’s ans Eingemachte: Proxmox installieren.
      Ich habe die aktuelle ISO (Version 9.x) heruntergeladen und sie über mein KVM-System gemountet.

      Proxmox Download Link

      Wichtige Punkte bei der Installation:

      • Installationsziel: die interne 128-GB-SSD
      • Sprache und Tastatur: Deutsch
      • Netzwerk manuell konfigurieren, z. B.:
        • IP: 192.168.100.2
        • Gateway: 192.168.100.1/23
        • DNS: 1.1.1.1
      • Root-Passwort und E-Mail hinterlegen
      • automatischen Reboot aktivieren

      In der Regel werden euch die Netzwerkeinstellungen korrekt vorgegeben. Bei mir war es allerdings so, dass er das /23 Netzwerk scheinbar nicht richtig erkannt hat. Insofern habe ich die Settings manuell anpassen müssen. Wenn ihr ein /24 er Netzwerk habt, sollte das ohne manuelle Anpassungen funktionieren.

      Nach dem Neustart kann man sich über den Browser anmelden:

      https://192.168.100.2:8006
      

      Standard-Login ist root, gefolgt vom Passwort aus der Installation.


      Schritt 3: Repositories und Updates einrichten

      Nach der Erstinstallation meldet sich Proxmox mit dem Hinweis auf eine fehlende Subscription.
      Das kann man entweder offiziell lizenzieren oder – wie ich es gemacht habe – mit einem kleinen Helfer-Script umgehen.

      Proxmox Helper Scripts PVE Post Install

      Ich nutze das Proxmox VE Helper Script, um die richtigen Repositories zu aktivieren:

      1. Enterprise-Repos deaktivieren
      2. No-Subscription-Repos aktivieren
      3. Test-Repos deaktivieren
      4. Subscription-Hinweis ausschalten
      5. System aktualisieren

      bash -c "$(curl -fsSL https://raw.githubusercontent.com/community-scripts/ProxmoxVE/main/tools/pve/post-pve-install.sh)"
      

      Danach läuft ein automatischer Update-Prozess. Wichtig: Das Terminal offen lassen – der Vorgang dauert einige Minuten. Nach dem anschließenden Reboot ist das System vollständig auf Proxmox VE 9.x.x aktualisiert.


      Schritt 4: Überblick über die Hardware

      Wenn du dich in der Weboberfläche anmeldest, siehst du:

      • Drei NVMe-Laufwerke, ideal für virtuelle Maschinen
      • Mehrere HDD-Bays (je nach Modell bis zu 8 Stück)
      • CPU-Auslastung und Speicherübersicht

      Damit eignet sich das Ugreen NAS perfekt für:

      • Proxmox-Cluster
      • Virtuelle NAS-Instanzen (z. B. Unraid oder TrueNAS)
      • Backup-Server
      • Home Assistant-VMs oder Container



      Schritt 6: Nächste Schritte – Unraid oder TrueNAS als VM

      Jetzt, wo Proxmox läuft, kannst du entscheiden, welche NAS-Software du darauf als virtuelle Maschine nutzen willst.
      Ich werde im nächsten Teil zeigen, wie man Unraid oder TrueNAS installiert, Festplatten durchreicht und ein performantes NAS-System in Proxmox betreibt.

      Mich interessiert deine Meinung:
      ➡️ Soll ich zuerst Unraid oder TrueNAS zeigen? Schreib’s mir gerne in die Youtube Kommentare!


      Fazit

      Mit wenigen Schritten lässt sich das Ugreen DXP8800 Plus oder auch das kleinere DXP4800 in ein vollwertiges HomeLab-System verwandeln.
      Statt das eingeschränkte Ugreen OS zu nutzen, erhältst du mit Proxmox:

      • volle Kontrolle über Hardware und Virtualisierung
      • flexible Backup- und Restore-Möglichkeiten
      • unbegrenzte Erweiterbarkeit

      Ich bin beeindruckt, wie gut sich das System schlägt – trotz kompakter Bauweise. Und das Beste:
      Du behältst dein ursprüngliches Ugreen OS als Image, falls du es jemals zurückspielen möchtest.

      Im nächsten Teil zeige ich dir die Integration eines virtuellen NAS und den Aufbau eines echten HomeLab-Konzepts, das Backup-Server, Smart-Home-Automatisierung und zentrale Datenspeicherung vereint. Auch das Thema Redundanz wird in den weiteren Teilen noch behandelt werden.


      Ugreen NAS im Test – Mein Setup mit dem DXP8800 Plus & DXP4800 Plus für Smart Home und Proxmox

      👉 Direkt auf YouTube schauen und abonnieren:
      Smart Home & More auf YouTube

      Ein NAS ist mehr als ein Datengrab

      Für viele ist ein NAS (Network Attached Storage) ein reines Datengrab. Für mich ist es längst das Herzstück meines Smart Homes. Backups, Medienserver, virtuelle Maschinen, Container – alles läuft irgendwo zentralisiert, und das spart mir Zeit, Energie und Nerven.

      Als Content Creator kommt einiges zusammen: Videos, Rohmaterial, Fotos, Testdaten. Inzwischen liegen bei mir über 30–40 Terabyte im Speicher. Mein bisheriges Setup bestand aus einem wilden Mix aus Proxmox-Server, Unraid-Selbstbau-NAS, Asustor und weiteren Lösungen.

      Das Problem: Chaos, hoher Wartungsaufwand und ein Stromverbrauch von rund 200 Watt Dauerlast. Das war einfach nicht mehr zeitgemäß.

      👉 Also habe ich nach einer Lösung gesucht, die Leistung, Energieeffizienz und Flexibilität verbindet.

      🛒 Transparenzhinweis

      Dieser Beitrag entstand in Kooperation mit Ugreen. Meine Meinung bleibt wie immer unabhängig und ehrlich.

      Die folgenden Links sind Werbelinks im Rahmen meiner Kooperation mit UGREEN.


      👉 Hier findest du die UGREEN NAS Systeme aus dem Video

      🌐 UGREEN Website
      📦 UGREEN NAS Collection
      UGREEN NAS DXP4800 Plus

      🛒 Amazon
      📦 UGREEN NAS Collection
      UGREEN NAS DXP4800 Plus


      Warum die Wahl auf Ugreen fiel

      Ich habe in den letzten Jahren viele Systeme ausprobiert und gebastelt. Das macht Spaß, kostet aber enorm viel Zeit. Mit Ugreen habe ich ein System gefunden, das out of the box zuverlässig funktioniert, gleichzeitig aber so offen ist, dass ich mein eigenes Betriebssystem installieren kann – egal ob Proxmox, Unraid oder TrueNAS.

      Diese Offenheit unterscheidet Ugreen von vielen klassischen NAS-Herstellern. Hier bekomme ich hochwertige Hardware, auf der ich machen kann, was ich möchte.


      Ugreen DXP8800 Plus – Mein Power-NAS im Detail

      Das 8-Bay NAS DXP8800 Plus bildet das Herz meines neuen Systems. Besonders wichtig waren für mich folgende Punkte:

      • 2× 10 Gbit RJ45 Ethernet → flexibel einsetzbar, ohne SFP+-Zwang
      • X86 Intel® Core™ i5 12. Gen 10 Kerne 12 Threads → starke Leistung für Virtualisierung
      • Arbeitsspeicher: 8 GB standardmäßig, offiziell bis 64 GB erweiterbar – inoffiziell sogar 2× 48 GB, also 96 GB (läuft bei mir stabil)
      • 3× NVMe-Slots, inkl. OS-Platte
      • PCIe-Slot für Erweiterungen (z. B. Coral TPU für Frigate für Kameraüberwachung)
      • Sehr viele USB-Schnittstellen, die sich ideal für Smart-Home-Geräte eignen

      Performance & CPU-Auslastung

      Im Alltag läuft bei mir Proxmox als Hypervisor. Die CPU-Auslastung liegt im Schnitt nur bei 4–7 %, obwohl mehrere VMs aktiv sind. Das bedeutet: viel Luft nach oben für weitere Dienste.

      Energieverbrauch

      Ein entscheidender Faktor für mich war der Stromverbrauch.

      • Idle: 40–60 Watt
      • Last (Parity-Build, Backups): bis zu 100 Watt

      Verglichen mit meinem alten Setup (200 Watt) spare ich also rund 50 % Energie, bei gleichzeitig deutlich mehr Leistung.

      Altes Setup

      Vorher

      Neues Setup


      Mein Setup mit Proxmox und Unraid

      Auf dem DXP8800 Plus läuft Proxmox. Darauf habe ich mehrere virtuelle Maschinen eingerichtet:

      • Home Assistant → meine zentrale Smart-Home-Steuerung
      • Paperless NGX → digitales Dokumentenmanagement
      • Unraid als VM → für flexiblen Datenspeicher
      • Proxmox Backup Server → für inkrementelle Backups

      Warum Unraid? Für mich hat es gegenüber ZFS zwei klare Vorteile:

      1. Platten schlafen legen: Ich greife oft nur auf eine Platte zu. Das spart Energie.
      2. Gemischte Festplattengrößen: Ich kann vorhandene Platten nutzen und das System nach und nach erweitern.


      Backup-Strategie mit zwei Ugreen NAS

      Datensicherheit ist mir extrem wichtig. Daher setze ich auf eine Kombination aus Hauptsystem (DXP8800 Plus) und Backup-System (DXP4800 Plus).

      • Das DXP8800 Plus läuft 24/7 und hostet alle VMs sowie die Daten.
      • Das DXP4800 Plus startet einmal pro Woche automatisch, führt Backups durch und fährt danach wieder herunter.

      Proxmox Backup Server im Einsatz

      Ich nutze Proxmox Backup Server, der inkrementell und mit Deduplizierung arbeitet. Beim ersten Lauf dauert ein Backup noch lange, danach nur noch rund 40–45 Minuten bei meinen 3 TB Daten.

      Zusätzlich laufen:

      • Garbage Collection Jobs → alte Daten werden endgültig entfernt
      • Verify Jobs → Backups werden täglich geprüft

      Damit bin ich sicher, dass meine Daten nicht nur gespeichert, sondern auch konsistent und überprüft sind.


      Ugreen DXP4800 Plus – der kompakte Bruder

      Das 4-Bay NAS DXP4800 Plus ist kompakter und günstiger, aber keineswegs schwach. Es bietet:

      • X86 Intel® Pentium® Gold 12. Gen 5 Kerne 6 Threads
      • 1× 10 Gbit + 1× 2,5 Gbit RJ45
      • Bis zu 64 GB RAM – inoffiziell sogar 2× 48 GB, also 96 GB (läuft bei mir stabil)
      • Viele USB-Ports
      • Stabile Performance mit Ugreen OS

      Für alle, die kein alternatives Betriebssystem installieren wollen, reicht das mitgelieferte Ugreen OS vollkommen aus.


      Smart Home Integration

      Ein spannender Punkt ist für mich die Smart-Home-Anbindung. Über Proxmox habe ich problemlos USB-Geräte durchgereicht, z. B.:

      • Homematic-Stick für Homematic IP-Geräte
      • Weitere Smart-Home-Adapter für Zigbee oder Z-Wave
      • PCIe-Erweiterung für Frigate zur Kameraüberwachung

      Damit wird das NAS zum zentralen Smart-Home-Server, der deutlich mehr kann als nur Daten speichern.


      Vergleich mit anderen Herstellern

      Ich habe viele Systeme getestet. Hier mein persönlicher Vergleich:

      • Synology
        • Sehr gutes OS, viele Funktionen
        • ABER: Festplattenzwang → nur eigene, überteuerte Platten erlaubt
        • Für mich ein klares No-Go
      • QNAP
        • Funktionsreich und flexibel
        • Aber immer wieder technische Probleme (z. B. Power-On-Fehler, Docker-Bugs)
      • Asustor
        • Guter Funktionsumfang, OS flexibel
        • Verarbeitung eher einfach (viel Plastik)
      • Ugreen
        • Hochwertige Aluminium-Gehäuse
        • Magnetische Staubfilter, durchdachte HDD-Rahmen
        • Frei wählbares Betriebssystem
        • Sehr stabile Performance


      Was mir gefällt – und wo es Kritik gibt

      Vorteile

      ✔️ Offenes System (Proxmox, Unraid etc. laufen problemlos)
      ✔️ Sehr starke Hardware
      ✔️ Energieeffizient im Vergleich zu meinem alten Setup
      ✔️ Viele durchdachte Details (magnetische Staubfilter, einfache HDD-Rahmen)
      ✔️ Hochwertige Verarbeitung

      Kritik

      ❌ Kein ECC-RAM (wäre für Enterprise sinnvoll)


      Fazit: Ugreen ist für mich die beste Wahl

      Nach fast zwei Monaten intensiver Nutzung kann ich sagen: Ugreen NAS-Systeme sind eine echte Alternative zu Synology und QNAP.

      • Das DXP8800 Plus ist perfekt für Power-User und Virtualisierer.
      • Das DXP4800 Plus eignet sich ideal für kompaktere oder Einsteiger-Setups.

      Für mich persönlich ist Ugreen derzeit die beste Kombination aus Leistung, Energieeffizienz und Flexibilität. Ich spare Strom, habe mehr Power und gleichzeitig ein sauberes, durchdachtes Setup.


      Ausblick

      In den kommenden Wochen werde ich in separaten Beiträgen und Videos zeigen:

      • Wie man Proxmox auf dem Ugreen NAS installiert
      • Wie Unraid als VM läuft
      • Wie ich mein Backup-System mit Proxmox Backup Server optimiert habe
      • Welche Smart-Home-Szenarien ich mit der neuen Hardware umsetze

      👉 Abonniere meinen YouTube-Kanal Smart Home & more und bleib dran!