Unterstützung des Kanals

Hinweis: Der folgende Link ist ein Affiliate-Link.

Die Erstellung meiner Skripte und Videos ist mit einem erheblichen zeitlichen Aufwand verbunden – von der technischen Vorbereitung über intensive Recherche bis hin zu Tests, Aufnahmen und Nachbearbeitung. Alle Inhalte stelle ich dir dennoch vollständig kostenlos zur Verfügung.

Wenn du meine Arbeit unterstützen möchtest, kannst du das ganz einfach tun: Für deine Amazon-Bestellungen nutze gern meinen Partner-Link. Für dich ändert sich am Preis nichts – ich erhalte lediglich eine kleine Provision. Vielen Dank für deinen Support!

Jetzt über Amazon unterstützen

Proxmox Backup Server einrichten – so sichere ich mein komplettes HomeLab ( inkl. ZFS-Mirror, UGREEN NAs & Sync Setup)

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Proxmox Backup Server Titelbild

In meinem HomeLab spielt der Proxmox Backup Server eine zentrale Rolle. Viele unterschätzen das Thema Backups – aber wenn eine VM plötzlich weg ist oder Hardware ausfällt, sind die Schmerzen groß. Genau deshalb zeige ich dir in diesem Beitrag, wie ich meinen Proxmox Backup Server (PBS) eingerichtet habe: mit ZFS-Mirror, by-id-Passthrough, Backup-Jobs, Remote-Sync und Wiederherstellungsstrategie.

Ich verwende in meinem Setup mehrere UGREEN NAS-Systeme, die hervorragend mit Proxmox harmonieren und gleichzeitig effizient und leise laufen. Meine Geräte:

Dazu habe ich den Speicher erweitert:
48 GB RAM für UGREEN NAS*
👉 https://amzn.to/4nZzEfw


Warum Backups mehr sind als nur eine Kopie

Bevor wir starten, kurz der wichtigste Unterschied:

  • ZFS Mirror → schützt mich vor Plattenausfall
  • Proxmox Backup Server → schützt mich vor Datenverlust
  • Remote Sync → schützt mich vor Brand, Diebstahl, Defekt

Ich erlebe in der Community häufig, dass ein RAID oder ZFS-Mirror als Backup verstanden wird. Das ist aber nur eine Verfügbarkeitsschicht, kein echtes Backup.
Backups entstehen erst, wenn:

  • Daten inkrementell gespeichert werden
  • Versionen existieren
  • sie auf getrennter Hardware liegen

Genau das erfüllt der Proxmox Backup Server im gezeigten Setup.


Mein Setup – Überblick

Ich nutze:

  • Proxmox 9 auf meinem HomeLab
  • UGREEN DXP8800 Plus als Haupt-NAS
  • UGREEN DXP4800 Plus als Backup-NAS
  • Ein weiterer PBS in der Cloud (optional)

Damit kann ich selbst bei einem kompletten Hardware-Schaden alle Backups wiederherstellen.


ZFS Mirror anlegen – die Basis

Zuerst habe ich im UGREEN NAS ein ZFS Mirror aus 2 HDDs angelegt. Das schafft Redundanz und optimale Performance für den PBS-Datastore.

In meinem Fall:

Damit ZFS in der PBS-VM funktioniert, brauche ich die echten Laufwerke – und genau dafür ist Passthrough per /dev/disk/by-id unverzichtbar.


Warum ich /dev/disk/by-id nutze

Wenn du einfach /dev/sda oder /dev/sdb durchreichst, kann die Reihenfolge nach einem Reboot oder Update wechseln.
Das wäre fatal.

Darum nutze ich:

ls -l /dev/disk/by-id

Dort suche ich meine beiden HDDs heraus – in meinem Fall z. B.:

  • ata-ST4000DM004_XXXXXX
  • ata-ST4000DM004_YYYYYY

Diese IDs trage ich später bei der VM als Passthrough ein.

Erste HDD an scsi1:

qm set 126 --scsi1 /dev/disk/by-id/ata-WDC_WD40EFPX-68C6CN0_WD-WX12DC482U93

Zweite HDD an scsi2:

qm set 126 --scsi2 /dev/disk/by-id/ata-WDC_WD40EFPX-68C6CN0_WD-WX22DC4LF10E

Proxmox Backup Server ISO vorbereiten

Ich lade das ISO bei Proxmox herunter und packe es ins in mein Proxmox.

Dann lege ich eine neue VM an:

  • BIOS: UEFI
  • Machine: q35
  • Disk: 64 GB (SSD-Simulation)
  • RAM: 2 GB
  • Cores: 2
  • Netzwerkkarte: VirtIO

Alles sehr genügsam – PBS ist extrem leichtgewichtig.


ZFS Mirror im PBS anlegen

Sobald die VM läuft:

  1. Storage → Disks
  2. Die beiden Passthrough-HDDs auswählen
  3. ZFS → Mirror
  4. Namen vergeben (z. B. zfs-mirror-pbs)
  5. Erstellen

PBS im Proxmox einbinden

Jetzt binde ich den Backup Server in Proxmox ein:

  • Datacenter → Storage → Add → Proxmox Backup Server

Hier brauche ich:

  • IP des PBS
  • Benutzer: root@pam
  • Datastore-Name (z. B. zfsmirrorpbs)
  • Fingerprint aus PBS → Dashboard → „Show Fingerprint“

Nach dem Speichern erscheint der PBS sofort im Storage-Baum.

Backup-Job in Proxmox erstellen

Jetzt richte ich den eigentlichen Backup-Job ein:

  • Datacenter → Backup → Add
  • Schedule: täglich 21:00 Uhr
  • Mode: selected VMs (damit PBS sich nicht selbst sichert)

Optional:

  • Notifications per Mail
  • Compression Zstandard
  • Bandwidth-Limit

Retention – wie viele Backups ich behalte

Hier verwende ich eine Mischung aus kurz und langfristig:

  • Keep Last: 5
  • Keep Daily: 1
  • Keep Weekly: 1
  • Keep Monthly: 2
  • Keep Yearly: 2

Damit habe ich:

  • schnelle Wiederherstellung
  • Schutz vor Ransomware
  • sauberen Versionsverlauf

Backup testen

Ich starte den Job manuell:

Backup → Run now

Wenn die VM danach im Datastore auftaucht, weiß ich:
Das Grundsetup passt.


Mein zweiter PBS – Remote Sync für echte Sicherheit

Jetzt kommt der wichtigste Teil:
Backups müssen extern gespeichert werden.

Ich habe darum ein zweites NAS:

Dort läuft ebenfalls ein Proxmox Backup Server.

Ich richte dann ein:

  • Remote
  • Pull-Job (mein Favorit, weil sicherer)
  • Automatische Synchronisation

Beispiel:

  • Quelle: PBS #1 (Hauptsystem)
  • Ziel: PBS #2 (Backup-NAS)

So habe ich die Daten:

  • vor Ort → schnell wiederherstellbar
  • auf zweiter Hardware → geschützt vor Totalausfall

Option:
Ich betreibe zusätzlich einen PBS in der Hetzner Cloud für maximale Redundanz.


Energieoptimierung – mein Ansatz

Viele fragen mich:

„Kann ich das zweite NAS nicht einfach herunterfahren?“

Ja, kann man:

  • Second-NAS per Sync-Zeitpunkt wecken
  • Nach Sync automatisch herunterfahren
  • ZFS-Spindown aktivieren
  • Nur einmal pro Tag synchronisieren

Dadurch spare ich signifikant Energie.

Ich plane dazu ein eigenes Video & Blogbeitrag. Falls Interesse besteht, bitte in den Kommentaren zum Video einen kleinen Hinweis geben.


Restore – warum PBS hier so stark ist

Was ich am Proxmox Backup Server besonders schätze:

  • Deduplizierung
  • Schnelle inkrementelle Sicherungen
  • Extrem schnelle Wiederherstellung
  • Versioning
  • Bandbreitenlimit
  • Datensparsamkeit

Ich kann:

  • komplette VMs wiederherstellen
  • nur einzelne Dateien mounten
  • Snapshots vergleichen
  • Remote-Backups ziehen

Im Fall eines Hardware-Defekts:

  • ZFS-Mirror in neue Hardware einstecken
  • PBS ISO booten
  • Pool importieren
  • Backups direkt wiederherstellen

Fazit – ein zuverlässiges, effizientes Backup-System

Mit dem Proxmox Backup Server, ZFS-Mirror und einem zweiten NAS habe ich endlich ein Setup, das:

  • sicher,
  • schnell,
  • energieeffizient
  • und absolut robust ist.

Ich kann Hardware austauschen, VMs sofort wiederherstellen und selbst im Worst-Case bleibt mein komplettes HomeLab funktionsfähig.

Wenn du ein UGREEN-NAS einsetzt oder ein kompaktes HomeLab betreiben möchtest, kann ich dir diese Lösungen ehrlich empfehlen:

Wenn du Fragen hast oder dein eigenes Backup-Setup optimieren willst, schreib’s gern in die Kommentare unter dem Video.

Folgende Beiträge zum Themen könnten dich auch interessieren:

Unraid unter Proxmox installieren – Mein komplettes HomeLab-Setup Schritt für Schritt

Ugreen NAS mit TrueNAS – mein Setup unter Proxmox, ZFS & SMB-Freigaben im Praxistest

Ugreen NAS im Test – Mein Setup mit dem DXP8800 Plus & DXP4800 Plus für Smart Home und Proxmox

Roborock in Home Assistant: Vacuum Map Card richtig einrichten und Räume gezielt reinigen

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Einführung

Seit 2019 setze ich Roborock-Saugroboter zuverlässig in meinem Zuhause ein. Von älteren Modellen bis hin zu aktuellen Geräten arbeiten sie täglich für uns – und sind für unsere Familie nicht mehr wegzudenken. Gerade weil wir in jedem Stockwerk einen Roborock nutzen, ist mir eine effiziente Integration in Home Assistant besonders wichtig.

Bereits vor längerer Zeit hatte ich dazu ein Video sowie ein Skript bereitgestellt. Dieses funktionierte zuverlässig, war jedoch an ein grundlegendes Problem gebunden: Es arbeitete auf Geräte-IDs statt Entitäten. Wenn ein neuer Roboter hinzukam, musste das gesamte Skript manuell angepasst werden. Da bei uns immer wieder ein neues Modell seinen Platz findet, wurde diese Anpassung zunehmend unübersichtlich. Aus diesem Grund habe ich eine modernisierte, flexiblere Lösung entwickelt.

In diesem Beitrag zeige ich Schritt für Schritt, wie du:

  • Roborock korrekt in Home Assistant einbindest
  • die Roborock Custom Map Integration installierst
  • die Vacuum Map Card einrichtest
  • Räume sauber konfigurierst
  • die Karte vollständig nutzen kannst

Das Ziel ist, Roborock komfortabel und visuell ansprechend zu steuern – ganz ohne komplexe Skriptanpassungen.

Roborock Vacuum Map Card


Unterstützung des Kanals

Die Erstellung meiner Skripte und Videos ist mit einem erheblichen zeitlichen Aufwand verbunden – von der technischen Vorbereitung und intensiven Recherche bis hin zu Tests, Aufnahmen und Nachbearbeitung. Alle Inhalte stelle ich dir dennoch vollständig kostenlos zur Verfügung.

Aktuell gibt es in den Black Weeks besonders attraktive Angebote. Ich selbst habe mir zu diesen hervorragenden Konditionen einen neuen Roborock-Saugroboter gegönnt – die Preise sind wirklich stark.

Wenn du ebenfalls über den Kauf eines Roborock nachdenkst, kannst du meinen Kanal und meine Arbeit wirkungsvoll unterstützen, indem du den Roboter über meinen Affiliate-Link bestellst. Für dich bleibt der Preis unverändert, aber ein kleiner Anteil des Kaufpreises hilft mir, weiterhin hochwertige Inhalte bereitzustellen. Wenn du vielleicht etwas anderes in den Black Wecks kaufen möchtest, kannst du mich dennoch unterstützen, wenn du meinen allgemeinen amazon Link für deinen Einkauf verwendest.

Angebot


roborock Qrevo Curv Saugroboter mit Wischfunktion&Hebarem Wischmopp, Dual Anti-Tangle-System, AdaptiLift™ Chassis, 18.500Pa, 75℃ Heißwasser-Moppwäsche, Intelligente Schmutzerkennung&Sprachassistent

  • [Dual Anti-Tangle-System] Entdecke das revolutionäre doppelte Verhedderungsschutz-System des roborock Qrevo Curv mit Hauptbürste und Seitenbürste, einfach perfekt für den Umgang mit langen Haaren und für haustierfreundliche Wohnungen. Genieße eine Reinigung ohne verhedderte Haare und ähnliches, die Bürste reinigt sich fast von selbst.
  • [Extreme Saugkraft von 18.500 Pa] Branchenführende 18.500 Pa HyperForce Saugkraft in Kombination mit den Borsten der DuoDivide Bürste garantieren, dass der roborock Qrevo Curv auch anspruchsvolle Stellen wie Teppiche und Lücken in harten Böden gründlich reinigt und dabei selbst die kleinsten Partikel entfernt.
  • [FlexiArm Technologie] Die FlexiArm Arc Seitenbürste und das Kantenwischsystem, die exklusiv von Roborock angeboten werden, ermöglichen eine unvergleichliche Reinigungsabdeckung, da blinde Flecken beseitigt werden und somit kein Schmutz zurückbleibt.
  • [AdaptiLift Chassis] Erreiche ein höheres Niveau bei der Reinigung mit dem AdaptiLift Chassis, einer Premiere in der Branche, bei der viele verschiedene Anhebezustände dank drei unabhängig einstellbarer Räder erreicht werden können. So kann das gesamte Chassis um 10 mm angehoben werden oder nur die vordere, hintere, linke oder rechte Hälfte, damit die Anpassung an deine heimische Umgebung problemlos möglich ist.
  • [75 °C Heißwasser-Moppwäsche] Beseitige problemlos hartnäckige Flecken und fettige Verschmutzungen mit 75 °C heißem Wasser von deinen Mopps, gleichermaßen perfekt für Küchen und Essbereiche. Das heiße Wasser beseitigt über 99,99 % der Bakterien und gewährleistet optimale Hygiene. Mit drei einstellbaren Temperatureinstellungen bist du auf jedes Reinigungsszenario vorbereitet.

Angebot


roborock Saros 10R Saugroboter mit Wischfunktion&angebbarem Wischmopp, 22,000 Pa, 7,98cm Ultra-Slim Design, StarSight System 2.0, Zero-Tangle System

  • 7,98cm Ultraflaches Design – Dank des autonomen StarSight Systems 2.0 der nächsten Generation ist der Saros 10R unglaublich smart und beeindruckend flach. Mit seiner hochentwickelten Positionierungs- und Kartierungsfunktiornen navigiert er mühelos unter Sofas und Betten.
  • Autonomes StarSight System 2.0 – Mithilfe fortschrittlicher Technologie zur Vermeidung seitlicher Hindernisse gleitet er mühelos um unregelmäßig geformte Möbel und Wände herum und reinigt sogar die Umgebung herumliegender Kabel garantiert gründlich.
  • Zero-Tangle-System – Ständige Wartung der Bürste ist für dich kein Thema mehr- dank des revolutionären Anti-Tangle-Systems an Hauptbürste und Seitenbürste. Das System reinigt sich selbst und kommt selbst mit langen Haaren zurecht. Dank HyperForce Saugleistung verschwinden Staub und Schmutz auf verschiedenen Arten von Böden und Teppichen, da auch die kleinsten Partikel spurlos beseitigt werden.
  • FlexiArm Riser Seitenbürste und Mopp – Die FlexiArm Technologie ist die Grundlage der doppelten Roboterarme für die Seitenbürste und den Mopp, damit Schmutz aus Ecken, an Kanten und unter Möbeln gekonnt aufgekehrt wird.
  • AdaptiLift Chassis als Branchenpremiere – Das gesamte Gehäuse kann abgenommen werden. Dabei sind die drei Räder unabhängig voneinander einstellbar. So erreicht dein Roborock auch schwer erreichbarre Stellen wie ein allrad-betriebener Geländewagen – für optimale Reinigungsabdeckung.

Roborock Core Integration installieren

Ich beginne in Home Assistant mit einer sauberen Testumgebung, sodass jeder Schritt nachvollziehbar ist. Die Core Integration lässt sich über Einstellungen → Geräte & Dienste → Integration hinzufügen installieren. Nach Eingabe der E-Mail-Adresse und des Bestätigungscodes erscheinen alle Roborock-Geräte automatisch in der Übersicht.

Roborock Integration

Damit steht das Fundament, auf dem die gesamte spätere Kartenfunktionalität aufbaut.


Custom Map Integration über HACS installieren

Die Vacuum Map Card benötigt spezielle Map-Datenstrukturen. Die normale Roborock-Integration stellt diese jedoch nicht vollständig bereit. Genau dafür dient die Roborock Custom Map Integration.

Roborock Custom Map Integration

Nach dem Öffnen des Repositorys in HACS sucht man nach Roborock Custom Map Integration und drückt auf herunterladen. Anschließend ist ein Neustart von Home Assistant erforderlich. Roborock

Wichtig: Die bisherige Image-Entität des Roboters sollte deaktiviert werden. Die neue Custom-Image-Entität wird später in der Vacuum Map Card genutzt.

Roborock Image deaktivieren


Vacuum Map Card installieren

Die Karte selbst wird ebenfalls über HACS installiert.

Roborock Vacuum Map Card

Ein Neustart ist hier nicht notwendig. Danach kann ich direkt im Dashboard eine neue Karte hinzufügen und folgende Einstellungen setzen:

  • Plattform: Roborock
  • Staubsauger: Eure Sauger Entität
  • Image: die neue, durch die Custom Map Integration erzeugte Map-Entität

Die Karte zeigt nun die vollständige Umgebung an und bildet die Grundlage für die spätere Raumsteuerung.


Räume korrekt einrichten

Damit die Karte weiß, welche Bereiche ausgewählt werden können, müssen die Räume in der Roborock App korrekt definiert bzw. bereinigt werden.

Roborock Handy App

Über Karte bearbeiten → Erstelle Raumkonfiguration wird die Raumkonfiguration ausgelesen und im YAML Code der Karte angelegt. Im Code-Editor kann man dann die Erstellung überprüfen.

Hier zeigt Home Assistant zwar sämtliche Räume an, allerdings meist in mehrfacher Ausführung. Ich lösche alle überflüssigen Einträge und behalte nur diejenigen, die tatsächlich existieren – in meinem Fall Flur, Studio und Büro. Mir ist dabei aufgefallen, wenn man von unten nach oben geht, dann hat man an den letzten Stellen immer die korrekten Räume mit ihren IDs. D.h. ich geht wie im Beispiel Studio, Büro, Flur nach oben und löscht wie im Video gezeigt die überflüssigen Räume

Nach dem Speichern erscheinen die Räume korrekt und lassen sich über die Karte selektieren.


Erweiterte Reinigungsoptionen – ohne Skriptanpassungen

Viele Anwender starten die Reinigung direkt über die Karte und stellen die gewünschten Parameter dort ein. Das funktioniert zuverlässig. Auch Saugleistung, Modi und Wischintensitäten lassen sich dort einstellen.

Da ich selbst häufig erst sauge und anschließend wische, habe ich ein eigenes erweitertes Vorgehen entwickelt. Dieses ermöglicht es mir über ein Skript erst zu saugen und dann zu wischen und gleichzeitig alle relevanten Parameter vorzubelegen.

Die benötigten Entitäten – etwa für Mop-Modus, Wischintensität oder Ventilatorgeschwindigkeit – lassen sich zuvor über die Entwicklerwerkzeuge bestimmen. Wichtig, achtet darauf, dass wir die korrekten Attribute bei der Übergabe an das Skript übernehmt.

Dynamisches Skript für erst Saugen und dann Wischen ( nur für Roborock Saugroboter)

alias: Sauge und Wische Dynamisch
description: ""
mode: parallel
max: 10
fields:
  vacuum_entity:
    name: vacuum_entity
    description: Vacuum-Entität, z.B. vacuum.roborock_s8_pro_ultra
    required: true
    selector:
      entity:
        filter:
          domain: vacuum
  mop_mode_entity:
    name: mop_mode_entity
    description: Select-Entität für Mop-Modus (z.B. select.*_mop_modus)
    required: true
    selector:
      entity:
        filter:
          domain: select
  mop_intensity_entity:
    name: mop_intensity_entity
    description: Select-Entität für Wischintensität (z.B. select.*_wisch_intensitat)
    required: true
    selector:
      entity:
        filter:
          domain: select
  segments:
    name: segments
    description: Segment-IDs aus der Map Card (z.B. [16,17])
    required: true
    selector:
      object: {}
  fan_speed_saugen:
    name: fan_speed_saugen
    description: Lüfterstufe fürs Saugen (z.B. max, turbo, quiet)
    required: false
    default: max
    selector:
      text: {}
  fan_speed_wischen:
    name: fan_speed_wischen
    description: Lüfterstufe fürs Wischen
    required: false
    default: quiet
    selector:
      text: {}
  mop_mode:
    name: mop_mode
    description: Mop-Modus (z.B. standard)
    required: false
    default: standard
    selector:
      text: {}
  mop_intensity_saugen:
    name: mop_intensity_saugen
    description: Wischintensität während Saugen
    required: false
    default: mild
    selector:
      text: {}
  mop_intensity_wischen:
    name: mop_intensity_wischen
    description: Wischintensität während Wischen
    required: false
    default: moderate
    selector:
      text: {}
  saugen:
    name: saugen
    description: Soll gesaugt werden?
    required: false
    default: true
    selector:
      boolean: {}
  wischen:
    name: wischen
    description: Soll gewischt werden?
    required: false
    default: true
    selector:
      boolean: {}
sequence:
  - variables:
      segs: |-
        {% set s = segments %} {% if s is string %}
          {% set s = s | from_json %}
        {% endif %} {{ s | map('int') | unique | list }}
  - if:
      - condition: template
        value_template: "{{ saugen }}"
        alias: Wenn Saugen eingeschaltet ist
    then:
      - alias: Wisch Intensität (Saug-Durchgang)
        action: select.select_option
        target:
          entity_id: "{{ mop_intensity_entity }}"
        data:
          option: "{{ mop_intensity_saugen }}"
      - delay:
          milliseconds: 500
      - alias: Mopp-Modus (Saug-Durchgang)
        action: select.select_option
        target:
          entity_id: "{{ mop_mode_entity }}"
        data:
          option: "{{ mop_mode }}"
      - delay:
          milliseconds: 500
      - alias: Lüfterstufe (Saug-Durchgang)
        action: vacuum.set_fan_speed
        target:
          entity_id: "{{ vacuum_entity }}"
        data:
          fan_speed: "{{ fan_speed_saugen }}"
      - delay:
          milliseconds: 500
      - alias: Starte Saug-Durchgang (Segmente)
        action: vacuum.send_command
        target:
          entity_id: "{{ vacuum_entity }}"
        data:
          command: app_segment_clean
          params: "{{ segs }}"
      - action: persistent_notification.create
        data:
          message: "Sauge: {{ segs }}"
  - alias: Wischen
    if:
      - condition: template
        value_template: "{{ wischen }}"
    then:
      - alias: Wenn Saugen und Wischen aktiv sind
        if:
          - condition: template
            value_template: "{{ saugen }}"
        then:
          - alias: Warte bis Roboter nicht mehr 'docked' ist
            wait_template: "{{ not is_state(vacuum_entity, 'docked') }}"
            timeout: "00:05:00"
            continue_on_timeout: true
          - alias: Warte bis Roboter 1 Minute am Stück 'docked' ist
            wait_template: |-
              {{ is_state(vacuum_entity, 'docked')
                 and (as_timestamp(now())
                      - as_timestamp(states[vacuum_entity].last_changed)) > 60 }}
            timeout: "02:00:00"
            continue_on_timeout: true
          - alias: Prüfe Dock-Status nach Timeout
            if:
              - condition: template
                value_template: "{{ not is_state(vacuum_entity, 'docked') }}"
            then:
              - action: persistent_notification.create
                data:
                  title: Saugskript Hinweis
                  message: >-
                    {{ vacuum_entity }} war nach 2 Stunden noch nicht stabil
                    'docked'. Wisch-Durchgang wird trotzdem gestartet.
      - alias: Lüfterstufe (Wisch-Durchgang)
        action: vacuum.set_fan_speed
        target:
          entity_id: "{{ vacuum_entity }}"
        data:
          fan_speed: "{{ fan_speed_wischen }}"
      - delay:
          milliseconds: 500
      - alias: Mopp-Modus (Wisch-Durchgang)
        action: select.select_option
        target:
          entity_id: "{{ mop_mode_entity }}"
        data:
          option: "{{ mop_mode }}"
      - delay:
          milliseconds: 500
      - alias: Wisch Intensität (Wisch-Durchgang)
        action: select.select_option
        target:
          entity_id: "{{ mop_intensity_entity }}"
        data:
          option: "{{ mop_intensity_wischen }}"
      - delay:
          milliseconds: 500
      - alias: Starte Wisch-Durchgang (Segmente)
        action: vacuum.send_command
        target:
          entity_id: "{{ vacuum_entity }}"
        data:
          command: app_segment_clean
          params: "{{ segs }}"
      - action: persistent_notification.create
        data:
          message: "Wische: {{ segs }}"


Integration in die Vacuum Map Card

Damit die Reinigung komfortabel über einen einzigen Button in der Karte ausgelöst werden kann, erweitere ich die Kartenkonfiguration. Dadurch entsteht ein zusätzlicher Menüpunkt wie „Saugen und Wischen“. Dieser greift auf die zuvor definierten Parameter zu und löst die Reinigungssequenz aus. Roborock

Default Code Ansicht ohne Räume:

YAML Code Ansicht der Vacuum Card, mit den Räumen

type: custom:xiaomi-vacuum-map-card
map_source:
  camera: image.s8_ug_untergeschoss_custom
calibration_source:
  camera: true
entity: vacuum.roborock_s8_pro_ultra
vacuum_platform: Roborock
map_modes:
  - template: vacuum_clean_zone
  - template: vacuum_goto
  - template: vacuum_clean_segment
    predefined_selections:
      - id: "16"
        icon:
          name: mdi:broom
          x: 22850
          "y": 22675
        label:
          text: Flur
          x: 22850
          "y": 22675
          offset_y: 35
        outline:
          - - 19700
            - 20200
          - - 26000
            - 20200
          - - 26000
            - 25150
          - - 19700
            - 25150
      - id: "17"
        icon:
          name: mdi:broom
          x: 22925
          "y": 26825
        label:
          text: Büro
          x: 22925
          "y": 26825
          offset_y: 35
        outline:
          - - 19450
            - 25150
          - - 26400
            - 25150
          - - 26400
            - 28500
          - - 19450
            - 28500
      - id: "18"
        icon:
          name: mdi:broom
          x: 28075
          "y": 26850
        label:
          text: Studio
          x: 28075
          "y": 26850
          offset_y: 35
        outline:
          - - 26250
            - 25200
          - - 29900
            - 25200
          - - 29900
            - 28500
          - - 26250
            - 28500

Um jetzt ein zusätzliches Skript aufzurufen, müssen wir ein paar Parameter im YAML Code ergänzen. Diese fügen wird direkt unterhalb der vorherigen Eintragungen ( bei euch demnach nach euren Räumen mit den Koordinaten ) ein.

Die Parameter fan_speed_saugen, fan_speed_wischen, mop_intensity_saugen. mop_intensity_wischen, sind nach den zuvor ausgelesenen Attributen aus den Entwicklerwerkzeugen einzusetzen. Bitte nicht einfach kopieren, denn jeder Roborock Roboter hat hier unter Umständen andere Namen in den Attributen!

  - name: UG Saugen & Wischen
    icon: mdi:layers-triple
    selection_type: ROOM
    max_selections: 10
    run_immediately: false
    variables:
      fan_speed_saugen: max
      fan_speed_wischen: "off"
      mop_mode: standard
      mop_intensity_saugen: "off"
      mop_intensity_wischen: moderate
    service_call_schema:
      service: script.sauge_und_wische_dynamisch
      service_data:
        vacuum_entity: "[[entity_id]]"
        segments: "[[selection]]"
        saugen: true
        wischen: true
        mop_mode_entity: select.roborock_s8_pro_ultra_mop_modus
        mop_intensity_entity: select.roborock_s8_pro_ultra_wisch_intensitat
        fan_speed_saugen: "[[fan_speed_saugen]]"
        fan_speed_wischen: "[[fan_speed_wischen]]"
        mop_mode: "[[mop_mode]]"
        mop_intensity_saugen: "[[mop_intensity_saugen]]"
        mop_intensity_wischen: "[[mop_intensity_wischen]]"
    predefined_selections:

Jetzt fehlen und bei de predefined_selections: nur noch die Räume. Hier gibt es jetzt zwei Möglichkeiten. Entweder man kopiert sich die „predefined_selections“ aus dem vorherigen Code Abschnitt, oder aber man nutzt einen YAML-Anker. Ich nutze einen YAML-Anker, um Raumdefinitionen nicht doppelt pflegen zu müssen. Das reduziert die Fehleranfälligkeit und erleichtert spätere Anpassungen.

Dazu geht an die erste Stelle mit“ predefined_selections“ im Code.

und fügt dort folgendes nach dem Doppelpunkt ein:

&seg

Dann geht zum letzten Eintrag mit „predefined_selections“, also der Blog, den ihr zuvor eingefügt hattet.

Dort fügt nun nach dem Doppelpunkt ein :

*seg

ein.

Jetzt nur noch auf „Speichern“ drücken. Und der Abschnitt nach eurem letzten „predefined_selections“ wird automatisch mit den Eintragungen aus dem oberen Abschnitt gefüllt. Das Verfahren verringert aus meiner Sicht die Fehleranfälligkeit beim Kopieren und Einfügen.

Um euch die Möglichkeit zu geben eure YAML Konfiguration der Vacuum Map Card abzugleichen, habt ihr hier nochmal den kompletten YAML Code meiner eigenen Konfiguration. Bitte beachtet, dass ihr eure eigene Raumkonfiguration erstellen müsst, da diese in meinem Setup auf unsere Raumkonfiguration in der Roborock App abgestimmt ist!

type: custom:xiaomi-vacuum-map-card
map_source:
  camera: image.s8_ug_untergeschoss_custom
calibration_source:
  camera: true
entity: vacuum.roborock_s8_pro_ultra
vacuum_platform: Roborock
map_modes:
  - template: vacuum_clean_zone
  - template: vacuum_goto
  - template: vacuum_clean_segment
    predefined_selections:
      - id: "16"
        icon:
          name: mdi:broom
          x: 22850
          "y": 22675
        label:
          text: Flur
          x: 22850
          "y": 22675
          offset_y: 35
        outline:
          - - 19700
            - 20200
          - - 26000
            - 20200
          - - 26000
            - 25150
          - - 19700
            - 25150
      - id: "17"
        icon:
          name: mdi:broom
          x: 22925
          "y": 26825
        label:
          text: Büro
          x: 22925
          "y": 26825
          offset_y: 35
        outline:
          - - 19450
            - 25150
          - - 26400
            - 25150
          - - 26400
            - 28500
          - - 19450
            - 28500
      - id: "18"
        icon:
          name: mdi:broom
          x: 28075
          "y": 26850
        label:
          text: Studio
          x: 28075
          "y": 26850
          offset_y: 35
        outline:
          - - 26250
            - 25200
          - - 29900
            - 25200
          - - 29900
            - 28500
          - - 26250
            - 28500
  - name: UG Saugen & Wischen
    icon: mdi:layers-triple
    selection_type: ROOM
    max_selections: 10
    run_immediately: false
    variables:
      fan_speed_saugen: max
      fan_speed_wischen: "off"
      mop_mode: standard
      mop_intensity_saugen: "off"
      mop_intensity_wischen: moderate
    service_call_schema:
      service: script.sauge_und_wische_dynamisch
      service_data:
        vacuum_entity: "[[entity_id]]"
        segments: "[[selection]]"
        saugen: true
        wischen: true
        mop_mode_entity: select.roborock_s8_pro_ultra_mop_modus
        mop_intensity_entity: select.roborock_s8_pro_ultra_wisch_intensitat
        fan_speed_saugen: "[[fan_speed_saugen]]"
        fan_speed_wischen: "[[fan_speed_wischen]]"
        mop_mode: "[[mop_mode]]"
        mop_intensity_saugen: "[[mop_intensity_saugen]]"
        mop_intensity_wischen: "[[mop_intensity_wischen]]"
    predefined_selections:
      - id: "16"
        icon:
          name: mdi:broom
          x: 22850
          "y": 22675
        label:
          text: Flur
          x: 22850
          "y": 22675
          offset_y: 35
        outline:
          - - 19700
            - 20200
          - - 26000
            - 20200
          - - 26000
            - 25150
          - - 19700
            - 25150
      - id: "17"
        icon:
          name: mdi:broom
          x: 22925
          "y": 26825
        label:
          text: Büro
          x: 22925
          "y": 26825
          offset_y: 35
        outline:
          - - 19450
            - 25150
          - - 26400
            - 25150
          - - 26400
            - 28500
          - - 19450
            - 28500
      - id: "18"
        icon:
          name: mdi:broom
          x: 28075
          "y": 26850
        label:
          text: Studio
          x: 28075
          "y": 26850
          offset_y: 35
        outline:
          - - 26250
            - 25200
          - - 29900
            - 25200
          - - 29900
            - 28500
          - - 26250
            - 28500

Praxisbeispiel

Nach der vollständigen Einrichtung lassen sich Räume über die Vacuum Map Card einfach auswählen. Wenn ich einzelne Bereiche oder mehrere Räume zu einer kombinierten Reinigung zusammenfasse, genügt ein Klick auf den jeweiligen Button. Der Roboter fährt die Bereiche nacheinander ab und führt, je nach Einstellung, Saugen und Wischen exakt in dieser Reihenfolge aus. Roborock

Diese Lösung funktioniert zuverlässig mit allen Roborock-Modellen, die von der Core-Integration unterstützt werden.


Fazit

Durch die Kombination aus Roborock Core Integration, Roborock Custom Map Integration und Vacuum Map Card wird Home Assistant deutlich leistungsfähiger. Die Kartenansicht erleichtert die Steuerung im Alltag erheblich und bietet eine sehr klare Übersicht über alle Räume.

Während bei uns zu Hause meine Frau die puristische Ansicht bevorzugt, nutze ich gerne die Vacuum Map Card mit den erweiterten Funktionen. Beide Varianten haben ihre Vorteile – entscheidend ist, was im Alltag besser funktioniert. Den Blogbeitrag zu meiner alten Lösung findet ihr hier:

Blogbeitrag: Roborock in Home Assistant, Core Integration

Wenn du eigene Ideen oder Optimierungen hast, freue ich mich über Rückmeldungen. Ergänzende Dateien und Konfigurationen findest du wie gewohnt auf meiner Blogseite.

Unraid unter Proxmox installieren – Mein komplettes HomeLab-Setup

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Unraid unter Proxmox installieren – Mein komplettes HomeLab-Setup

In diesem Beitrag möchte ich dir zeigen, wie ich Unraid unter Proxmox in meinem HomeLab betreibe – und warum dieses Setup für mich aktuell die beste Kombination aus Energieeffizienz, Flexibilität und Performance bietet. Ich nutze Proxmox schon lange als zentrale Virtualisierungsebene. Die Möglichkeit, darauf wiederum Unraid zu virtualisieren, ist für mich ein idealer Weg, moderne NAS-Funktionen mit der Flexibilität eines Linux-Hypervisors zu verbinden.

Gerade im privaten Umfeld spielt Stromverbrauch eine immer wichtigere Rolle. Während ZFS mit TrueNAS im professionellen Einsatz für mich der absolute Favorit ist, lege ich zuhause Wert darauf, dass Platten zuverlässig schlafen können und nicht permanent durchlaufen müssen. Und genau dort punktet Unraid enorm.


Warum ich Unraid unter Proxmox nutze

Zu Beginn war ich selbst skeptisch, ob eine Virtualisierung von Unraid überhaupt sinnvoll ist. In der Praxis hat sich das aber schnell als echte Lösung herausgestellt. Ich habe einerseits die komplette Kontrolle von Proxmox inklusive Snapshots, VMs, Netzwerkmanagement und ZFS-Speicher für meine virtuellen Maschinen. Gleichzeitig nutze ich die Stärken von Unraid, nämlich ein extrem flexibles Array, Caching, schlafende HDDs, Docker-Management und eine sehr unkomplizierte Erweiterbarkeit.

Was viele nicht wissen: Auf dem USB-Stick wird fast nie geschrieben. Der Stick dient in erster Linie als Boot-Medium, und lediglich Änderungen an der Konfiguration werden gespeichert. Dadurch ist er erstaunlich langlebig. Ich verwende Sticks mit garantiert eindeutiger GUID, da Unraid die Lizenz an diese ID bindet.


Mein Hardware-Setup*

In meinem Video habe ich ein UGREEN 4-Bay NAS als Beispiel genutzt. Mein produktives System ist das 8-Bay Modell mit deutlich mehr Kapazität. Die Vorgehensweise ist identisch, weshalb sich das Tutorial flexibel auf verschiedenste Hardware übertragen lässt.

In meinem Testsystem stecken vier 4-TB-HDDs, zwei NVMe-SSDs im ZFS-Mirror (für Proxmox selbst) und eine virtuelle 250-GB-Disk, die ich später als Cache-Laufwerk für Unraid verwende. Zusätzlich habe ich den Arbeitsspeicher auf 48 GB erweitert, was im Alltag angenehm ist, aber für Unraid selbst gar nicht nötig wäre.


Vorbereitung des USB-Sticks*

Um Unraid nutzen zu können, lade ich das offizielle Flash-Tool herunter und spiele die aktuelle Version auf einen frisch formatierten Stick. Das geht wirklich unkompliziert. Wichtig ist nur, dass die GUID korrekt erkannt wird und der Stick zuverlässig von der Hardware gebootet werden kann. Danach stecke ich ihn in das UGREEN-NAS und kann in Proxmox direkt loslegen.

Unraid unter Proxmox


Die virtuelle Maschine in Proxmox

Die VM für Unraid ist schnell erstellt. Ich vergebe ihr einen Namen, lasse das Installationsmedium leer und wähle als Maschinentyp q35, damit alle modernen PCIe-Funktionen verfügbar sind. Anschließend stelle ich 4 GB Arbeitsspeicher und zwei bis vier CPU-Kerne bereit. Eine virtuelle Festplatte lege ich an dieser Stelle noch nicht an, da Unraid später die tatsächlichen HDDs direkt erhält.

Damit die VM korrekt startet, passe ich anschließend die Bootreihenfolge an. Zuerst soll der USB-Stick booten. Die restlichen Order sind eigentlich überflüssig.


Passthrough von USB-Stick und SATA-Controller

Das ist der wichtigste Schritt des gesamten Setups. Der USB-Stick wird anhand seiner Vendor- und Device-ID durchgereicht. Das sorgt dafür, dass Unraid beim Start genau diesen Stick erkennt – unabhängig davon, an welchem Port er steckt.

Noch wichtiger ist das Durchreichen des SATA-Controllers. Ich wähle also unter den PCI-Geräten den kompletten Controller aus, aktiviere „Alle Funktionen“ und reiche ihn mit PCIe-Unterstützung an die VM durch. Das bedeutet: Unraid sieht die HDDs so, als wären sie direkt über SATA angeschlossen. Keine virtuelle Zwischenschicht, keine Geschwindigkeitseinbußen – echtes Bare-Metal-Feeling.

Die zusätzliche virtuelle SCSI-Disk lege ich als SSD-emuliertes Laufwerk an. Sie dient später als Cache-Drive und trägt massiv dazu bei, dass die physikalischen HDDs lange schlafen können.


Der erste Start von Unraid

Nach dem Start bootet Unraid direkt vom USB-Stick. Sobald eine IP vergeben wurde, öffne ich die Weboberfläche und vergebe zuerst ein Administrator-Passwort. Danach starte ich die kostenlose Trial oder nutze meinen vorhandenen Lizenzschlüssel.

Es ist wichtig zu wissen, dass die Lizenz fest an die eindeutige Stick-ID gebunden ist. Wechselst du den Stick, musst du die Lizenz übertragen – daher lohnt sich ein qualitativ hochwertiges Modell.


Einrichtung des Arrays

Jetzt geht es ans Herzstück von Unraid: Das Array. Ich entscheide mich bewusst für ein klassisches Setup mit Paritätsfestplatte. Für mich ist das der beste Kompromiss zwischen Sicherheit, Flexibilität und Energieverbrauch. Bei einem ZFS-System müssen alle Platten permanent laufen, da die Datenstruktur über mehrere Platten gleichzeitig verteilt ist. Unraid hingegen erlaubt es, Platten einzeln schlafen zu legen, solange sie nicht aktiv benötigt werden.

Ich ordne die Platten der Reihe nach zu, vergebe die Parity-Disk und ordne zwei oder drei weitere HDDs als Datenlaufwerke zu. Das Cache-Drive definiere ich ebenfalls direkt, sodass größere Schreibvorgänge zunächst auf den schnellen virtuellen NVMe-Speicher gehen.

Der erste Parity-Build dauert mehrere Stunden, was normal ist. Während dieser Zeit sollten möglichst keine Daten auf das Array geschrieben werden.


Energie sparen mit Spindown und Cache

Einer der Hauptgründe, warum ich Unraid privat so gerne nutze, ist der deutlich geringere Stromverbrauch. Sobald die Parität erstellt wurde, stelle ich das automatische Einschlafen der HDDs ein. Bei mir sind 15 Minuten ideal, aber 30 Minuten sind ebenfalls ein guter Wert, wenn regelmäßig kleinere Zugriffe stattfinden.

Damit die Platten wirklich zuverlässig schlafen können, ist das Cache-Drive entscheidend. Es nimmt alle kurzfristigen Schreibvorgänge auf, und erst später bewegt der sogenannte „Mover“ die Daten auf die HDDs. Ich lasse den Mover bewusst zu Zeiten laufen, in denen meine PV-Anlage Strom liefert – idealerweise mittags.

In Tests liegt mein System im Idle bei rund 30 W. Während der Parität waren es etwa 57 W. Mit größeren HDDs (7 200 U/min) steigt der Unterschied noch stärker an, weshalb ein stromsparendes Setup auf Dauer bares Geld spart.


Netzwerk-Setup und 10-Gigabit-Anbindung

Unraid bekommt bei mir zunächst eine DHCP-Adresse, die ich im Router fest verankere. Für besonders schnelle Kopiervorgänge nutze ich zusätzlich die 10-Gigabit-Schnittstelle des UGREEN-NAS. Diese reiche ich ebenfalls an die VM durch und vergebe ihr eine eigene statische IP.

In meinen Tests erreiche ich über die 10-GbE-Verbindung bei Kopien auf den Cache problemlos Übertragungsraten von über 200 MB/s. Gerade wenn ich Daten auf das NAS oder zwischen VMs verschiebe, bringt das spürbare Vorteile. Ich weiß, die 10GbE Schnittstelle sollte ja viel mehr können. Aber meine VM , von der ich aus kopiere liegt auf langsamen SSD Speicher, da geht nicht mehr. Mit einem physischen Rechner und einer schnellen NVME lassen sich aber die Bandbereiten fast vollständig ausnutzen. Mir geht es hier aber primär um Energie und nicht um Performance.


Docker, Apps und Benutzer

Nachdem das System steht, aktiviere ich Docker und installiere das Community-Apps-Plugin. Damit stehen mir hunderte Anwendungen direkt mit einem Klick zur Verfügung – von Medienservern über Backuplösungen bis hin zu KI-Tools.

Anschließend lege ich Benutzer und Freigaben an. Der typische Workflow sieht bei mir so aus, dass ich ein Share erst auf den Cache schreiben lasse und der Mover die Dateien später automatisch ins Array verschiebt. Das sorgt dafür, dass die HDDs über weite Strecken komplett schlafen können.


Warum Unraid für mein HomeLab bleibt

Auch wenn ich im professionellen Umfeld TrueNAS weiterhin sehr gerne einsetze, ist Unraid für mein HomeLab inzwischen die erste Wahl. Es erlaubt mir, flexibel Platten zu kombinieren, ja, es sind sogar Festplatten mit unterschiedlichen Größen möglich, sie einzeln schlafen zu lassen, Docker bequem zu verwalten und die Hardware sehr frei zu konfigurieren. Energietechnisch habe ich damit ein System, das im Leerlauf nicht mehr verbraucht als ein kleiner Büro-PC – und gleichzeitig jederzeit erweiterbar bleibt.

Wenn du selbst ein HomeLab aufbaust und zwischen ZFS/TrueNAS und Unraid schwankst, kann ich dir nur empfehlen, einmal Unraid auszuprobieren. Gerade die Mischung aus Einfachheit, Flexibilität und Energieeffizienz macht das System im privaten Einsatz extrem attraktiv. Auch Unraid beherrscht mittlerweile ZFS. Aber der Fokus lag bei mir auf die Einsparung von Energie.

Weitere Blogbeiträge zum Thema HomeLab:

Ugreen NAS im Test – Mein Setup mit dem DXP8800 Plus & DXP4800 Plus für Smart Home und Proxmox

Ugreen NAS mit Proxmox – So baust du dir dein eigenes HomeLab

Ugreen NAS mit TrueNAS – mein Setup unter Proxmox, ZFS & SMB-Freigaben im Praxistest

Home Assistant Präsenz­erkennung mit dem Bayesian Sensor – So denkt dein Smart Home in Wahrscheinlichkeiten

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Einleitung

Kennst du das Problem, dass Home Assistant manchmal „denkt“, du bist nicht zu Hause – obwohl du gerade gemütlich auf der Couch sitzt?
Oft liegt das daran, dass ein einzelner Sensor (z. B. dein Handy im WLAN) den Ausschlag gibt. Ist der Akku leer oder das WLAN kurz aus, geht Home Assistant davon aus: niemand zu Hause!

Genau hier kommt der Bayesian Sensor ins Spiel. Er arbeitet nicht mit starrer Logik, sondern mit Wahrscheinlichkeiten. Damit wird deine Präsenz­erkennung so zuverlässig wie nie zuvor.

In diesem Beitrag zeige ich dir Schritt für Schritt, wie du den Bayesian Sensor in Home Assistant einrichtest, konfigurierst und sinnvoll in deine Automatisierungen einbindest.


Was ist der Bayesian Sensor?

Der Bayesian Sensor (oft auch „Bayes-Sensor“ genannt) ist eine Integration in Home Assistant, die auf dem Bayes’schen Wahrscheinlichkeitsprinzip basiert.
Das klingt erst mal nach Statistik, ist aber unglaublich nützlich: Der Sensor kombiniert verschiedene Zustände (z. B. WLAN-Verbindung, Tür geöffnet, Bewegung erkannt) und berechnet daraus eine Gesamtwahrscheinlichkeit, ob du zu Hause bist oder nicht.

Das Entscheidende: Du kannst jedem Sensor eine eigene Gewichtung geben.
So denkt dein Smart Home nicht mehr in „Ja/Nein“, sondern in „Wie wahrscheinlich ist es, dass jemand da ist?“

Beispiel:

  • WLAN ist verbunden → +20 %
  • Companion App meldet „Zuhause“ → +30 %
  • Haustür wurde geöffnet → +10 %
  • Bewegung im Flur → +15 %

➡️ Ab einer bestimmten Schwelle (z. B. 60 %) wird der Zustand auf „anwesend“ gesetzt.


Warum Wahrscheinlichkeiten besser sind als Logik

Die klassische Logik („UND“ / „ODER“) in Home Assistant ist anfällig für Störungen.
Wenn du zum Beispiel folgende Bedingung nutzt:

„Nur wenn WLAN und Companion App beide ‘Home’ melden, gilt Anwesenheit als wahr“

…dann reicht ein kleiner WLAN-Aussetzer – und dein ganzes System glaubt, du bist weg.
Lichter gehen aus, Heizung wird abgesenkt, und du wunderst dich, warum alles dunkel wird.

Mit dem Bayesian Sensor passiert das nicht.
Er „denkt“ wie ein Mensch und gewichtet jede Information nach ihrer Verlässlichkeit.


Einrichtung des Bayesian Sensors in Home Assistant

🧭 Hinweis: Du findest die Integration unter
Einstellungen → Geräte & Dienste → Integration hinzufügen → Bayesian Sensor

Ich zeige dir hier die wichtigsten Schritte an einem Beispiel für die Präsenz­erkennung.


Grundwahrscheinlichkeit festlegen

Zuerst definierst du, wie wahrscheinlich es generell ist, dass du zu Hause bist.
Wenn du z. B. werktags 8 Stunden arbeitest, kannst du sagen:

Grundwahrscheinlichkeit : 40 % , dass ich zu Hause bin

Die Wahrscheinlichkeitsschwelle habe ich auf 60% gelegt. D.h. wenn diese Schwelle überschritten wird, gilt der Zustand „zu Hause“ .


Beobachtungen (Observations) hinzufügen

Jetzt kommen deine Sensoren ins Spiel.
Jede Beobachtung bekommt zwei Werte:

  • prob_given_true: Wahrscheinlichkeit, dass der Sensor „an“ ist, wenn du da bist
  • prob_given_false: Wahrscheinlichkeit, dass der Sensor „an“ ist, obwohl du nicht da bist

Hier ein Beispiel für die Companion App:

🧩 Damit sagst du: Wenn mein iPhone auf „home“ steht, bin ich mit 95 %iger Sicherheit zu Hause.


WLAN-Sensor hinzufügen

WLAN-Verbindungen sind nützlich, aber nicht immer zuverlässig (z. B. bei iPhones im Sleep-Modus).
Ich nutze in meinem Setup Unifi, du kannst aber genauso gut die FritzBox-Integration oder einen Ping-Sensor verwenden.

Beispiel-Template (mit 10-Minuten-Check):

{% set wlan = states('device_tracker.unifi_default_54_eb_e9_bd_03_13') %}
          {% set last_upd = as_timestamp(states.device_tracker.unifi_default_54_eb_e9_bd_03_13.last_updated, 0) %}
          {% set age = as_timestamp(now()) - (last_upd or 0) %}
          {{ wlan == 'home' or (age < 10) }}


Türkontakt als zusätzlicher Indikator

Wenn du nach Hause kommst, öffnest du normalerweise eine Tür.
Das kannst du clever nutzen, um die Wahrscheinlichkeit weiter zu erhöhen:

{{ (as_timestamp(now()) - as_timestamp(states.binary_sensor.haustur_eg_contact.last_changed, 0)) < 120 }}

Dadurch berücksichtigt der Sensor Türaktivität nur in den letzten zwei Minuten – perfekt für das Szenario „Nach Hause kommen“.


Live-Test & Feinabstimmung

Nachdem du alles eingerichtet hast, kannst du den Zustand in den Entwicklerwerkzeugen prüfen.
Die Entität zeigt dir:

Wenn du z. B. dein WLAN deaktivierst, sinkt der Wert leicht – bleibt aber über 0.6, solange andere Sensoren „Zuhause“ melden.

So erreichst du endlich ein stabiles Verhalten, auch bei kleinen Aussetzern.


Erweiterte Anwendungen

Der Bayesian Sensor kann weit mehr als nur Präsenz­erkennung.
Ein paar Ideen, wie du ihn nutzen kannst:

  • Nachtmodus aktivieren, wenn:
    • keine Bewegung mehr erkannt wird
    • alle Media Player aus sind
    • bestimmte Lichter aus sind
  • „Nicht zu Hause“-Modus, wenn:
    • niemand mehr aktiv ist
    • Tür längere Zeit geschlossen bleibt
    • Bewegungsmelder inaktiv sind

Dadurch erhältst du fließende Zustände, die viel realistischer wirken als reine Logik.


Kombination mit Automatisierungen

Du kannst den Bayesian Sensor wie jeden anderen Binärsensor in Automationen nutzen:

alias: Licht ausschalten bei Abwesenheit
trigger:
  - platform: state
    entity_id: binary_sensor.tobias_zuhauses_bayes
    to: 'off'
action:
  - service: light.turn_off
    target:
      area_id: wohnzimmer


Tipps für dein Setup

✅ Starte mit 2–3 Beobachtungen und erweitere schrittweise
✅ Teste Änderungen über die Entwicklerwerkzeuge
✅ Achte auf realistische Gewichtungen (WLAN nie zu hoch gewichten)
✅ Nutze Templates, um zeitbasierte Bedingungen (z. B. „letzte 10 Minuten“) einzubauen
✅ Lies die Wahrscheinlichkeiten aus und beobachte den Verlauf über ein paar Tage


Fazit – Warum der Bayesian Sensor so stark ist

Der Bayesian Sensor ist für mich einer der unterschätztesten, aber mächtigsten Sensoren in Home Assistant.
Er ermöglicht eine flexible, menschlich anmutende Logik – ohne komplizierte Node-RED-Flows oder YAML-Monster.

Ich verwende ihn mittlerweile für:

  • Präsenz­erkennung
  • Nachtmodus
  • Energiesteuerung (z. B. „Wahrscheinlichkeit, dass jemand gleich heimkommt“)
  • und Szenarien mit mehreren Personen

👉 Probiere es aus – du wirst schnell merken, wie stabil deine Automatisierungen werden.

Schreib mir gerne in die Kommentare, wofür du den Bayesian Sensor nutzt oder welche Kombinationen bei dir besonders gut funktionieren.


Interne Links


Ugreen NAS mit TrueNAS – mein ehrlicher Erfahrungsbericht im HomeLab

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Ugreen NAS mit TrueNAS

In meiner HomeLab-Reihe wollte ich unbedingt ausprobieren, wie sich ein Ugreen NAS mit TrueNAS in der Praxis schlägt.
Ich habe ja bereits gezeigt, wie man Proxmox auf dem Ugreen NAS installiert und welche Möglichkeiten sich damit ergeben. Doch die meisten, die ein solches System aufbauen, wünschen sich auch klassische NAS-Funktionen: Datenspeicher, SMB-Freigaben, Backups und ein stabiles Dateisystem.

In diesem Beitrag zeige ich dir Schritt für Schritt,
wie ich TrueNAS als virtuelle Maschine unter Proxmox eingerichtet habe,
welche Fallstricke es gab – und warum ich mich am Ende gegen TrueNAS in meinem HomeLab entschieden habe.


Warum überhaupt TrueNAS?

Ich bin ein großer Fan modularer Systeme. Proxmox läuft auf meinem Ugreen DXP4800 Plus bereits als Hypervisor, und damit lassen sich wunderbar virtuelle Maschinen oder Container verwalten.
Aber ein Hypervisor allein ersetzt kein NAS. Deshalb lag es nahe, ein TrueNAS-System zu virtualisieren, um so die Vorteile beider Welten zu kombinieren:
Virtualisierung, Datensicherheit, ZFS-Pool, Freigaben – alles in einem Gerät.

Das Ganze ist kein Sponsored-Post. Ugreen hat mir zwar die Geräte (DXP4800 Plus und DXP8800 Plus) kostenlos zur Verfügung gestellt, aber die Entscheidung, wie ich sie einsetze und bewerte, liegt komplett bei mir.

Transparenz

Die in diesem Blogbeitrag vorgestellten Links sind Affiliate Links. D.h. , wenn ihr über diesen Link ein Produkt erwerbt, dann erhalte ich eine kleine Provision, ihr zahlt aber nicht mehr. Ihr unterstützt damit meine Arbeit. Herzlichen Dank dafür.


Vorbereitung & TrueNAS-Image

Zuerst benötigst du das Installations-Image. Das bekommst du auf der offiziellen TrueNAS-Website unter
👉 Support → Resources → TrueNAS Community Edition

Ein Login ist nicht nötig – einfach „No thank you, I have already signed up“ wählen und die neueste Stable-Version herunterladen.
Ich habe das Image anschließend in meinen Download-Ordner gelegt, um es danach in Proxmox hochzuladen.


Proxmox-Grundlage auf dem Ugreen NAS

In meinem vorherigen Beitrag habe ich bereits erklärt, wie du Proxmox auf dem Ugreen NAS installierst.
Falls du das noch nicht gesehen hast, findest du den Artikel hier:
👉 Proxmox auf Ugreen NAS installieren

Für dieses Setup verwende ich diesmal mein DXP4800 Plus.

Das größere 8800-Modell läuft bei mir bereits produktiv – und genau dort habe ich eine andere Lösung im Einsatz, über die ich später noch sprechen werde.

Mein DXP4800 Plus habe ich um 48 GB RAM erweitert (zusätzlich zu den 8 GB, die ab Werk verbaut sind) und zwei 2 TB NVMe-SSDs verbaut.

Darauf läuft ein ZFS-RAIDZ1-Pool, um Redundanz zu haben.
Das ist zwar kein Muss, aber für mich aus Sicherheitsgründen einfach sinnvoll.


TrueNAS-Image in Proxmox hochladen

Ich lade also das zuvor heruntergeladene TrueNAS-Image in Proxmox hoch.
Das geht erstaunlich schnell – und schon liegt das ISO im lokalen Storage bereit.

Kleiner Tipp:
Wenn du später ähnliche Projekte machst, lohnt sich eine eigene ISO-Library in Proxmox, damit du deine Images zentral verwalten kannst.


Virtuelle Maschine anlegen

Jetzt wird’s spannend: In Proxmox lege ich eine neue virtuelle Maschine an.

  1. Name: TrueNAS
  2. OS: das hochgeladene ISO-Image auswählen
  3. System: Typ Q35
  4. Bios: Default (SeaBIOS)
  5. Disk: 64 GB (Writeback aktiviert, wenn NVMe-Storage)
  6. CPU: 2 Cores
  7. RAM: 8 GB
  8. Netzwerk: Standard (virtio)

Damit ist die Grundkonfiguration fertig.
Bevor ich starte, habe ich noch einen wichtigen Schritt gemacht:
Ich habe den SATA-Controller des Ugreen NAS per PCI-Passthrough an die VM durchgereicht.
Nur so kann TrueNAS später die physischen Festplatten erkennen – inklusive SMART-Werte.


Controller-Passthrough & Festplatten

Beim DXP4800 Plus funktioniert das problemlos.
Beim DXP8800 Plus gibt es zwei Controller, aber nur der erste lässt sich durchreichen.
Für mein Setup war das kein Problem, da ich ohnehin nur vier Platten brauchte und die anderen Platten für andere Anwendungen im Konzept gedacht sind.

Damit TrueNAS auch später nested Virtualisierung oder Apps sauber ausführen kann, wähle ich bei der CPU den Typ „host“ – das ermöglicht maximale Kompatibilität.

Danach starte ich die VM – und der Installer begrüßt mich mit dem bekannten Menü.


TrueNAS Installation

Ich wähle „Install/Upgrade“, nehme die zuvor angelegte virtuelle Disk (64 GB) als Ziel und vergebe ein Passwort.
Wichtig:
Der Login-User heißt seit einiger Zeit truenas_admin (nicht mehr root).

Nach kurzer Installationszeit startet das System neu und zeigt mir eine IP-Adresse – in meinem Fall 192.168.100.152.
Diese rufe ich im Browser auf, logge mich ein und bin direkt auf der Weboberfläche.


Fehler & Korrektur – Controller nachreichen

Beim ersten Start sehe ich allerdings keine Festplatten.
Grund: Ich hatte vergessen, den Controller tatsächlich zuzuweisen.
Also VM ausschalten, in die Hardware-Sektion gehen und folgendes hinzufügen:

Add → PCI Device → Raw Device → ASMedia Serial ATA AHCI Controller → All Functions aktivieren → Add

Nach dem Neustart sind alle Platten sichtbar – inklusive Seriennummern und SMART-Funktionen.


ZFS-Pool anlegen

Jetzt geht es an das Herzstück: den ZFS-Pool.
Ich erstelle einen neuen Pool mit dem Namen zfspool und wähle RAIDZ1 als Layout.
Das bietet mir Datensicherheit, weil eine Platte ausfallen darf, ohne dass Daten verloren gehen.

Zur Erklärung:
Bei vier 8-TB-Platten ergibt sich netto etwa 24 TB nutzbarer Speicher – eine Platte dient der Ausfallsicherheit.

Ich verzichte in meinem Fall auf zusätzliche Cache- oder Log-Drives, da mein Fokus auf Datensicherheit, nicht auf Performance liegt. Außerdem brauche ich die NVMEs in meinem Proxmox Setup noch für weitere virtuelle Maschinen 🙂


SMB-Freigaben & Benutzer

Anschließend lege ich einen neuen Benutzer an (home) und vergebe ein Passwort.
Unter Datasets wähle ich meinen Pool aus und erstelle ein Dataset namens Backup.
Als Preset wähle ich SMB, damit automatisch der passende Dienst aktiviert wird.

Nach dem Speichern fragt mich TrueNAS, ob der SMB-Service gestartet werden soll – natürlich bestätige ich das.
Im nächsten Schritt weise ich meinem Benutzer die entsprechenden Berechtigungen zu:

Edit → Add Item → User auswählen → Apply permissions recursively → Save Access Control List

Danach kann ich auf meinem Windows-Rechner einfach \\192.168.100.152 eingeben, mich mit home anmelden – und sehe sofort meine Freigabe.

Beim Testkopieren erreiche ich die volle Gigabit-Geschwindigkeit, also rund 110 MB/s.


Performance & Stabilität

Die Performance ist beeindruckend.
Selbst bei gleichzeitigen Zugriffen reagiert das System stabil und flüssig.
ZFS ist bekannt für seine Datensicherheit und Integrität, und das merkt man hier deutlich.

Aber: Jede Medaille hat zwei Seiten.
Denn ZFS hat einen hohen RAM-Bedarf und sorgt dafür, dass alle Platten aktiv bleiben, sobald auf den Pool zugegriffen wird.


Energieverbrauch – mein ehrliches Fazit

Ich habe das System mit meinem Home Assistant gemessen:
Das Setup verbraucht rund 48 Watt im Idle-Betrieb.

Das liegt daran, dass bei einem ZFS-Pool alle Festplatten ständig aktiv sind.
Selbst wenn nur auf eine Datei zugegriffen wird, laufen alle vier HDDs mit.
Rechnet man das hoch, sind das schnell 20–30 W Mehrverbrauch gegenüber einem Setup mit Spindown aller Platten. Und gerade bei einem Datengrab braucht man nicht 24/7 Zugriff und die Platten könnten eigentlich in den Spindown gehen.

In meinem HomeLab möchte ich aber effizient arbeiten.
Darum habe ich mich entschieden, künftig auf eine andere Lösung zu setzen: Unraid.
Auch hier würde sich eine ZFS Infrastruktur umsetzen lassen, aber mit den gleichen Thema der Energieeffizienz. Unraid bietet aber auch die Möglichkeit ein Array anzulegen. Das hat zwar keine native ZFS-Struktur, erlaubt aber ebenfalls Datensicherheit über eine Paritätsplatte – und lässt ungenutzte Laufwerke schlafen.

Über meinen Wechsel zu Unraid erzähle ich ausführlich im nächsten Teil der Serie. Wenn dich das interessiert, abonniere meinen Kanal auf youtube und verfolge meine Blog Beiträge.


Fazit: TrueNAS auf dem Ugreen NAS – stark, aber nicht für jeden

Mein Test hat gezeigt:
Ein Ugreen NAS mit TrueNAS unter Proxmox ist absolut machbar – und technisch spannend.
Die Einrichtung ist klar, das System stabil und durch ZFS sehr sicher.

Aber für meinen Einsatzzweck im HomeLab war es nicht die perfekte Lösung.
Der Energieverbrauch ist mir einfach zu hoch, und die permanente Aktivität aller Platten passt nicht zu meinem Konzept eines stromsparenden Setups.

Für alle, die ein reines Daten-NAS mit Fokus auf Stabilität und Redundanz suchen, ist TrueNAS eine hervorragende Wahl.
Wer dagegen Energieeffizienz und Flexibilität im Vordergrund hat, wird mit Unraid oder sogar Proxmox-LXC-Storage-Containern glücklicher.

Ich persönlich bleibe bei meinem Proxmox-Host, kombiniere aber künftig virtuelle Maschinen, Container und ein stromsparendes Storage-System.


Weiterführende Links


Schlusswort

Wenn du gerade ein Ugreen NAS besitzt oder planst, dir eins zuzulegen, dann ist TrueNAS auf jeden Fall einen Blick wert.
Die Einrichtung macht Spaß, du lernst viel über Storage-Konzepte, und du kannst alles flexibel virtualisieren.

Aber wie so oft gilt: Die perfekte Lösung hängt vom eigenen Ziel ab.
Ich wollte mein HomeLab möglichst effizient gestalten – und TrueNAS hat mir gezeigt, wo die Grenzen liegen.

Falls du Fragen hast, schreib’s gerne in die Kommentare bei Youtube oder schau auf meinem YouTube-Kanal vorbei – dort findest du das komplette Video mit allen Details.


💤 Home Assistant Nachtmodus mit Labels – einfache Struktur statt komplizierter Gruppen

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

🌙 Warum ich den Nachtmodus neu gedacht habe

Es war wieder Zeit für die Automatisierung des Monats – und diesmal wollte ich bewusst etwas Einfaches zeigen. Etwas, das wirklich jeder in Home Assistant umsetzen kann, ohne sich durch komplexe YAML-Strukturen oder unübersichtliche Gruppen zu kämpfen.

Ich nenne es die „Nachtmodus-mit-Labels-Methode“. Sie hilft, dein Smart Home strukturiert, flexibel und wartungsarm zu gestalten. Und das Beste: Du kannst sie in wenigen Minuten umsetzen.


🏠 Was soll der Nachtmodus eigentlich tun?

Der typische Nachtmodus schaltet im Smart Home:

  • alle Lichter aus,
  • fährt die Rollos herunter,
  • regelt die Heizung runter
  • und deaktiviert unnötige Geräte.

Doch wie immer steckt der Teufel im Detail: Nicht jedes Gerät soll sich ausschalten.
Mein Server zum Beispiel hängt an einem Smart Plug – wenn der ausginge, wäre es schnell vorbei mit Home Assistant. 😅

Früher habe ich das über Gruppen geregelt. Aber Gruppen müssen ständig gepflegt und aktualisiert werden, sobald neue Geräte hinzukommen oder sich Namen ändern. Und das ist genau der Punkt, wo Labels die perfekte Lösung sind.


🏷️ Labels – der Gamechanger für Automatisierungen

Labels sind in Home Assistant ein oft übersehenes, aber mächtiges Feature.
Du findest sie unter
Einstellungen → Bereiche, Labels & Zonen → Labels

Hier kannst du jedem Gerät oder jeder Entität ein oder mehrere Labels zuweisen – und später in Automatisierungen darauf zugreifen.

Ich habe mir also ein Label mit dem Namen „Nachtmodus“ angelegt, mit Symbol 🌙 und einer passenden Farbe. Anschließend weise ich dieses Label einfach allen Geräten zu, die beim Aktivieren des Nachtmodus reagieren sollen:

  • Lampen
  • Wandlampe im Büro
  • Rollos im Schlafzimmer
  • Thermostat im Büro

Fertig – kein manuelles Gruppieren mehr nötig. Ihr verseht nun alle Geräte, die ihr in der Nacht in irgendeiner Art im Zustand verändern wollt mit diesem Label.


💡 Geräte mit Labels verbinden

Damit du den Überblick behältst, kannst du Labels direkt über das Zahnrad-Symbol im Geräte-Menü vergeben.
Ich gehe dabei Schritt für Schritt vor:

  1. Licht auswählen → Zahnrad → Label „Nachtmodus“ hinzufügen
  2. Schalter oder Steckdose → ebenfalls Label hinzufügen
  3. Thermostat → Label „Nachtmodus“ zuweisen
  4. Optional: Abdeckung (Rollo) → Label ergänzen

Ihr könnt auch weitere Geräte, wie ein Türschloss, Mediaplayer etc.. hinzufügen.

Damit ist die Vorarbeit abgeschlossen – jetzt kann die Automatisierung kommen.


⚙️ Die Automatisierung für den Nachtmodus erstellen

Gehe zu
Einstellungen → Automatisierungen & Szenen → Neue Automatisierung erstellen.

Jetzt kommt der wichtigste Teil:
Ich baue eine Automatisierung, die nicht auf feste Entitäten zugreift, sondern nur auf Labels. Dadurch bleibt sie dynamisch.

Schritt 1: Auslöser definieren

Der Auslöser kann frei gewählt werden:

  • ein Schalter am Bett,
  • ein Zigbee-Button,
  • ein Dashboard-Taster,
  • oder eine Sprachsteuerung über Alexa.

Ich verwende meist einen einfachen Schalter und nenne den Auslöser „Nachtmodus aktivieren“.

Schritt 2: Aktionen festlegen

Jetzt werden alle Aktionen hinzugefügt, die über das Label gesteuert werden:

service: light.turn_off
target:
  label: Nachtmodus

Dasselbe Prinzip gilt auch für andere Gerätetypen:

service: switch.turn_off
target:
  label: Nachtmodus

service: climate.set_temperature
target:
  label: Nachtmodus
data:
  temperature: 15

alias: automatischer Nachtmodus
description: ""
triggers: []
conditions: []
actions:
  - action: light.turn_off
    metadata: {}
    data: {}
    target:
      label_id: nachtmodus
  - action: switch.turn_off
    metadata: {}
    data: {}
    target:
      label_id: nachtmodus
  - action: cover.close_cover
    metadata: {}
    data: {}
    target:
      label_id: nachtmodus
  - action: climate.set_temperature
    metadata: {}
    data:
      temperature: 10
    target:
      label_id: nachtmodus
mode: single

Dadurch schaltet Home Assistant alle Geräte mit dem Label „Nachtmodus“ automatisch aus oder regelt sie herunter.
Wenn du später neue Geräte hinzufügst, musst du nur das Label vergeben – keine Änderungen an der Automatisierung nötig!


🔍 Testen und Feinschliff

Ich empfehle, den Nachtmodus zunächst manuell über die drei Punkte in der Automatisierung auszuführen, um zu prüfen, ob alle Geräte reagieren.
Bei mir gingen sofort alle Lichter aus, die Heizung wurde heruntergeregelt – perfekt.

Zur Kontrolle kannst du in den Entitäten nach „Nachtmodus“ filtern. Dort siehst du alle zugehörigen Geräte und deren aktuellen Status.


📈 Warum Labels so viel besser sind als Gruppen

Hier die wichtigsten Vorteile auf einen Blick:

Weniger Pflegeaufwand – keine Gruppen mehr anpassen
Mehr Flexibilität – ein Gerät kann mehreren Labels angehören (z. B. Nachtmodus, Urlaub, Energiesparen)
Bessere Übersicht – klare Struktur im Gerätemanagement
Automatisierungen bleiben unverändert – selbst bei vielen Änderungen im System

Ich nutze Labels inzwischen nicht nur für den Nachtmodus, sondern auch für:

  • Urlaubsmodus
  • Energiesparmodus
  • Szenensteuerungen
  • Zeitgesteuerte Aktionen


🌅 Und am nächsten Morgen?

Natürlich lässt sich die gleiche Logik auch für den Morgenmodus anwenden.
Einfach ein zweites Label anlegen, z. B. „Morgenmodus“, und damit die gewünschten Aktionen starten:

  • Lichter im Flur an
  • Rollos hoch
  • Heizung auf Komforttemperatur

So baust du dir Schritt für Schritt ein modulares Smart Home-System, das leicht zu pflegen ist und immer nachvollziehbar bleibt.


💬 Fazit – Einfach, klar und wirkungsvoll

Mit dem Home Assistant Nachtmodus über Labels erreichst du maximale Kontrolle bei minimalem Aufwand.
Du kannst neue Geräte in Sekunden integrieren, behältst die Übersicht und brauchst keine YAML-Monster oder endlosen Gruppenlisten mehr.

Für erfahrene Nutzer ist es ein effizienter Weg, bestehende Strukturen zu optimieren.
Für Einsteiger ist es die perfekte Methode, Automatisierungen endlich zu verstehen – intuitiv, visuell und sauber aufgebaut.


🤝 Community-Tipp

🔗 Forum: https://community-smarthome.com
💬 Discord: https://smarthomeundmore.de/discord

Dort findest du viele engagierte Mitglieder, die bei Fragen rund um Home Assistant, Automatisierungen und MQTT , EVCC schnell weiterhelfen.

Ugreen NAS mit Proxmox – So baust du dir dein eigenes HomeLab

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Einführung

Ugreen hat mit den NAS-Systemen DXP4800 Plus, DXP6800 Plus, DXP8800 Plus und weiteren Varianten richtig starke Geräte auf den Markt gebracht. Was die Hardware angeht, bekommt man für den Preis wirklich viel Leistung. Beim Ugreen OS selbst war ich allerdings für mein Anforderungsprofil nicht ganz glücklich – zu eingeschränkt, zu wenig flexibel. Das trifft aber bei mir auf alle NAS Systeme zu… Also habe ich mir gedacht: Das muss besser gehen.

In diesem Beitrag zeige ich dir daher, wie ich das Ugreen OS sichere, Proxmox auf dem NAS installiere und daraus ein durchdachtes HomeLab-Konzept aufbaue. Wir sprechen also nicht nur über eine Installation – wir erschaffen gemeinsam ein System, das flexibel, performant und zukunftssicher ist.

Transparenz: UGreen hat mir die NAS – Systeme kostenlos zur Verfügung gestellt. Die Produkt Links in diesem Beitrag sind Affiliate Links. Ihr zahlt nicht mehr, ich erhalte allerdings eine kleine Provision.

Ich habe in meinem Setup das UGreen DXP 8800 Plus als Hauptsystem verwendet.

Angebot


UGREEN NASync DXP8800 Plus 8-Bay NAS Server, Intel i5-1235U 10-Kern, 8GB DDR5, 128GB SSD, 2×10GbE, 2×M.2 NVMe, 8K HDMI, 2×Thunderbolt 4, Kompatibel mit Drittanbieter HDD/SSD (Diskless)

  • Zwei 10GbE-Netzwerkanschlüsse: Zwei 10GbE-Hochgeschwindigkeitsnetzwerkanschlüsse, die zu einer Bandbreite von 20 G zusammengefasst werden können, um Downloadgeschwindigkeiten von bis zu 2500 MB/s zu erreichen. Große Dateien lassen sich problemlos übertragen. Die Last zwischen den beiden Portverbindungen kann dynamisch angepasst und ausgeglichen werden, um die Übertragungseffizienz zu verbessern.
  • Beispiellose Verarbeitungsleistung: Mit einem Intel Core i5-Prozessor der 12. Generation mit 10 Kernen und 12 Threads wird die Verarbeitungsleistung im Vergleich zu früheren Prozessoren sprunghaft verbessert.
  • 8-Bay, 256 TB riesiger Datenspeicher: Ausgestattet mit acht SATA- und zwei M.2 NVMe-Laufwerkschächten verfügt das NASync DXP8800 Plus über eine maximale Speicherkapazität von bis zu 256 TB. Speichern Sie Tausende von HD-Filmen, Bildern und Dokumenten und machen Sie NASync zu einer Filmbibliothek, einem Fotoalbum und einem Dateispeicherplatz in einem.
  • Eine umfassende App: Anstatt einzelne Anwendungen für bestimmte Funktionen herunterzuladen, integriert die NAS-App diese Funktionen an einem Ort. Greifen Sie von einem praktischen Ort aus auf Speichermanager, Dateien, Fotos und mehr zu.
  • Professionelle Datensicherheit: Im Vergleich zu Cloud-Laufwerken ermöglicht NASync Benutzern, große Mengen persönlicher Daten auf vertrauenswürdigen lokalen Geräten zu speichern, wodurch Datenverlust und Überwachung weitestgehend verhindert werden. Datenübertragung und Konten können mit professioneller Verschlüsselung und Multi-Faktor-Authentifizierung vollständig geschützt werden.

Wenn ihr in Summe nicht so viel Leistung benötigt, dann lässt sich auch ein sehr gutes Home Lab Setup mit dem DXP 4800 Plus umsetzen. Die ausgeführten Schritte bleiben die Gleichen. Ich will hier gar nicht im Detail auf die Hardware eingehen, dazu gibt es jede Menge guter Reviews auf Youtube. Mir geht es hier um die technische Umsetzung eines Home Lab Konzepts.

Angebot


UGREEN NASync DXP4800 Plus 4-Bay Desktop NAS, Intel Pentium Gold 8505 5-Core CPU, 8GB DDR5 RAM, 128G SSD, 1 * 10GbE, 1 * 2,5GbE, 2*M.2 NVMe-Steckplätze, 4K HDMI, Network Attached Storage (Diskless)

  • 12. Gen 5-Kern Intel Prozessor: Diese leistungsstarke CPU von Intel bietet ein außergewöhnlich flüssiges Erlebnis und sorgt für einen erheblichen Leistungszuwachs im Vergleich zu früheren Generationen.
  • Benutzerfreundliche App: Verwalte deinen Speicher und greife von all deinen Geräten auf deine Dateien zu, ganz einfach mit unserer maßgeschneiderten Software – und das alles ohne mehrere Tools oder komplizierte Drittanbieter-Software. Verfügbar für Android, iOS, Windows, Mac, Webbrowser und Smart-TVs.
  • 4 Bays und maximal 136TB: Die vier SATA-Bays unterstützen jeweils bis zu 30TB. Zusätzlich können zwei kompakte M.2 NVMe SSDs mit jeweils bis zu 8TB installiert werden (für SSD-Caching oder zusätzlichen schnellen Speicher). Bei vollständiger Ausnutzung aller Steckplätze beträgt die maximale Kapazität beeindruckende 136TB.
  • Blitzschnelle 10GbE- und 2.5GbE-Netzwerkanschlüsse: Der NASync DXP4800 Plus bietet Datenraten von bis zu beeindruckenden 1250 MB/s über zwei separate Anschlüsse. Ideal für alle, die eine schnelle und reibungslose Übertragung von 4K-Videos und großen Dateien benötigen.
  • Professionelle Datensicherheit: Mit sicherer Verschlüsselung sind Benutzerkonten und Daten vollständig geschützt.


Mein Plan: Vom NAS zum HomeLab

Ich wollte nicht einfach nur ein NAS betreiben, sondern eine Plattform schaffen, auf der virtuelle Maschinen, Backups und verschiedene Dienste parallel laufen können. Ugreen liefert mit dem DXP8800 Plus eine hervorragende Basis – drei NVMe-Slots, starke Hardware und genügend Platz für mehrere Festplatten.

Geliefert wird das NAS mit 8GB RAM und einer NVME , wo sich das UGREEN OS drauf befindet. Bei mir war eine 128 GB Festplatte verbaut, was für ein Proxmox zunächst ausreichend ist. Die beiden anderen Slots habe ich mit NVME Festplatten von Samsung belegt.

Mein Ziel war:

  • Proxmox als Hypervisor installieren
  • Unraid oder TrueNAS als virtuelles NAS betreiben
  • Backup-Server direkt integrieren
  • alle VMs zentral sichern

Da mir die 8GB RAM für meinen Anwendungsfall nicht genügten, habe ich den RAM um 48GB RAM erweitert. Achtet dabei darauf, dass ihr DDR5 RAM mit 4800 MHz verwendet. Ich habe sehr positive Erfahrungen mit Corsair Vengeance gemacht. Es gehen aber genauso auch andere Hersteller. Als Hinweis sei noch erwähnt, dass in den Spezifikationen von UGREEN angegeben ist, dass lediglich 2×32 GB RAM funktionieren. Das ist aber nicht der Fall, es funktionieren auch 2×48 GB RAM. Ich habe mit einem 48GB RAM Riegel angefangen und zusätzlich den 8GB Riegel belassen. Wenn mein Bedarf an RAM mal steigen sollte, kommt ein weiterer Riegel hinzu.


CORSAIR Vengeance SODIMM DDR5 RAM 48GB (1x48GB) 4800MHz CL40-40-40-77 1.10V Intel XMP 3.0 Laptop-Speicher – Schwarz (CMSX48GX5M1A4800C40)

  • Kompatibel mit nahezu allen Intel-Systemen: Der branchenübliche SODIMM-Formfaktor ist mit einer Vielzahl der gängigen Gaming- und -Performance-Laptops sowie Kompakt-PCs und mit Intel NUC-Kits kompatibel
  • Einfache Installation: Für die Installation in den meisten Laptops wird lediglich ein Schraubendreher benötigt
  • Maximaler Geschwindigkeitsschub: Für kürzere Ladezeiten, Multitasking und weitere Funktionen stellt VENGEANCE SODIMM in kompatiblen Systemen automatisch auf die maximal unterstützte Geschwindigkeit um
  • Umfassend getestete Zuverlässigkeit: Die Module sind gründlich geprüft und getestet, um eine erstklassige Leistung und Zuverlässigkeit zu gewährleisten
  • Kompatibilität: Intel 13th or 14th Gen Mobile-CPUs

Damit das funktioniert, beginne ich mit einem vollständigen Backup des Ugreen-Betriebssystems, bevor es gelöscht wird.


Schritt 1: Backup des Original-Systems mit Clonezilla

Bevor man irgendetwas verändert, sollte man das Ugreen OS vollständig sichern. Ich habe dafür Clonezilla verwendet – ein zuverlässiges Open-Source-Tool, das ein komplettes Image der Festplatte erstellt. Man kann auch die vorhandene NVME mit dem UGreen OS ausbauen und eine andere NVME dafür einbauen, aber warum sollte ich Ressourcen verschwenden, wenn ich doch mit einem Backup ebenfalls das Betriebssystem sauber gesichert bekomme und diesen Zustand jederzeit wiederherstellen kann ?

Vorgehen:

  1. Über KVM-over-IP greife ich auf das NAS zu.
    • Das Gerät simuliert Tastatur, Maus und Monitor über den Browser.
    • Ich kann so ins BIOS oder direkt auf den Installationsprozess zugreifen.

Angebot


GL.iNet KVM-Fernsteuerung über das Internet, 4K-Auflösung, Tailscale,Fernsteuerung von Tastatur, Video und Maus – ideal für Home-Office, Rechenzentren, IT-Verwaltung und industrielle Anwendungen

  • 【Zuverlässige Fernsteuerung】 Starten Sie defekte Computer neu, installieren Sie das Betriebssystem per BIOS-Steuerung und schalten Sie sie mit einer Zubehörerweiterung sogar aus der Ferne ein. Nie wieder müssen Sie Rechenzentren aufsuchen, um abgestürzte Systeme zu reparieren – ideal für IT-Teams und Smart-Home-Enthusiasten.
  • 【Universelle Kompatibilität & einfache Einrichtung】 Mühelose Verbindung zu Laptops, Desktops, Servern, Industrie-PCs und Streaming-Geräten. Einfache Ein-Klick-Verbindung per App – der zu steuernde Computer benötigt keine zusätzliche Software.
  • 【4K Auflösung & Audio-Unterstützung】 Unterstützung für Gigabit-Netzwerkzugriff. Erleben Sie Desktop-Qualität mit einer Auflösung von 3840 x 2160 bei 30 Hz und einer Verzögerung von < 60 ms. Mit synchronisiertem Audio fühlt sich die Arbeit aus der Ferne so natürlich an, als wäre man vor Ort.
  • 【Sofortige Dateiübertragung】 Bewältigen Sie den Nachteil herkömmlicher KVM-Geräte, Dateien nicht übertragen zu können: Unsere Lösung ermöglicht die nahtlose Dateifreigabe zwischen Geräten – keine lästigen Synchronisierungsprobleme mehr bei der Fernarbeit.
  • 【Zugriff überall und jederzeit】 Sichern Sie sich ständigen Fernzugriff auf Ihre Computer und steigern Sie Ihre Produktivität – egal, ob Sie zu Hause oder unterwegs sind. Geeignet für die Fernarbeit und zum Verwalten mehrerer Computer.

Ich nutze gerne ein KVM over IP Device, weil ich oftmals keine Lust habe einen extra Monitor , Tastatur und Maus anzuschließen. So kann ich alles bequem über meinen PC im Browser konfigurieren.

Der nächste Schritt ist nun das Clonezilla Image zu booten und wie in im Video gezeigt die Einstellungen vorzunehmen und ein Backup des UGreen OS durchzuführen. Das Clone Zilla Boot Image findet ihr hier . Ich habe die „stable“ Variante gewählt. Als Speicherziel für das Backup habe ich auf einem anderen NAS eine SMB/CIFS Freigabe erstellt. Hier könnt ihr jede beliebige Freigabe verwenden.

Achte unbedingt darauf, im BIOS den Watchdog zu deaktivieren, sonst startet das NAS mitten in der Sicherung neu.

Nach Abschluss hatte ich ein Image von etwa 3,4 GB Größe – klein, aber mit allem Wichtigen. Damit kann ich jederzeit das Originalsystem wiederherstellen.


Schritt 2: Installation von Proxmox VE 9.0.1

Jetzt geht’s ans Eingemachte: Proxmox installieren.
Ich habe die aktuelle ISO (Version 9.x) heruntergeladen und sie über mein KVM-System gemountet.

Proxmox Download Link

Wichtige Punkte bei der Installation:

  • Installationsziel: die interne 128-GB-SSD
  • Sprache und Tastatur: Deutsch
  • Netzwerk manuell konfigurieren, z. B.:
    • IP: 192.168.100.2
    • Gateway: 192.168.100.1/23
    • DNS: 1.1.1.1
  • Root-Passwort und E-Mail hinterlegen
  • automatischen Reboot aktivieren

In der Regel werden euch die Netzwerkeinstellungen korrekt vorgegeben. Bei mir war es allerdings so, dass er das /23 Netzwerk scheinbar nicht richtig erkannt hat. Insofern habe ich die Settings manuell anpassen müssen. Wenn ihr ein /24 er Netzwerk habt, sollte das ohne manuelle Anpassungen funktionieren.

Nach dem Neustart kann man sich über den Browser anmelden:

https://192.168.100.2:8006

Standard-Login ist root, gefolgt vom Passwort aus der Installation.


Schritt 3: Repositories und Updates einrichten

Nach der Erstinstallation meldet sich Proxmox mit dem Hinweis auf eine fehlende Subscription.
Das kann man entweder offiziell lizenzieren oder – wie ich es gemacht habe – mit einem kleinen Helfer-Script umgehen.

Proxmox Helper Scripts PVE Post Install

Ich nutze das Proxmox VE Helper Script, um die richtigen Repositories zu aktivieren:

  1. Enterprise-Repos deaktivieren
  2. No-Subscription-Repos aktivieren
  3. Test-Repos deaktivieren
  4. Subscription-Hinweis ausschalten
  5. System aktualisieren

bash -c "$(curl -fsSL https://raw.githubusercontent.com/community-scripts/ProxmoxVE/main/tools/pve/post-pve-install.sh)"

Danach läuft ein automatischer Update-Prozess. Wichtig: Das Terminal offen lassen – der Vorgang dauert einige Minuten. Nach dem anschließenden Reboot ist das System vollständig auf Proxmox VE 9.x.x aktualisiert.


Schritt 4: Überblick über die Hardware

Wenn du dich in der Weboberfläche anmeldest, siehst du:

  • Drei NVMe-Laufwerke, ideal für virtuelle Maschinen
  • Mehrere HDD-Bays (je nach Modell bis zu 8 Stück)
  • CPU-Auslastung und Speicherübersicht

Damit eignet sich das Ugreen NAS perfekt für:

  • Proxmox-Cluster
  • Virtuelle NAS-Instanzen (z. B. Unraid oder TrueNAS)
  • Backup-Server
  • Home Assistant-VMs oder Container



Schritt 6: Nächste Schritte – Unraid oder TrueNAS als VM

Jetzt, wo Proxmox läuft, kannst du entscheiden, welche NAS-Software du darauf als virtuelle Maschine nutzen willst.
Ich werde im nächsten Teil zeigen, wie man Unraid oder TrueNAS installiert, Festplatten durchreicht und ein performantes NAS-System in Proxmox betreibt.

Mich interessiert deine Meinung:
➡️ Soll ich zuerst Unraid oder TrueNAS zeigen? Schreib’s mir gerne in die Youtube Kommentare!


Fazit

Mit wenigen Schritten lässt sich das Ugreen DXP8800 Plus oder auch das kleinere DXP4800 in ein vollwertiges HomeLab-System verwandeln.
Statt das eingeschränkte Ugreen OS zu nutzen, erhältst du mit Proxmox:

  • volle Kontrolle über Hardware und Virtualisierung
  • flexible Backup- und Restore-Möglichkeiten
  • unbegrenzte Erweiterbarkeit

Ich bin beeindruckt, wie gut sich das System schlägt – trotz kompakter Bauweise. Und das Beste:
Du behältst dein ursprüngliches Ugreen OS als Image, falls du es jemals zurückspielen möchtest.

Im nächsten Teil zeige ich dir die Integration eines virtuellen NAS und den Aufbau eines echten HomeLab-Konzepts, das Backup-Server, Smart-Home-Automatisierung und zentrale Datenspeicherung vereint. Auch das Thema Redundanz wird in den weiteren Teilen noch behandelt werden.


Ugreen NAS im Test – Mein Setup mit dem DXP8800 Plus & DXP4800 Plus für Smart Home und Proxmox

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Ein NAS ist mehr als ein Datengrab

Für viele ist ein NAS (Network Attached Storage) ein reines Datengrab. Für mich ist es längst das Herzstück meines Smart Homes. Backups, Medienserver, virtuelle Maschinen, Container – alles läuft irgendwo zentralisiert, und das spart mir Zeit, Energie und Nerven.

Als Content Creator kommt einiges zusammen: Videos, Rohmaterial, Fotos, Testdaten. Inzwischen liegen bei mir über 30–40 Terabyte im Speicher. Mein bisheriges Setup bestand aus einem wilden Mix aus Proxmox-Server, Unraid-Selbstbau-NAS, Asustor und weiteren Lösungen.

Das Problem: Chaos, hoher Wartungsaufwand und ein Stromverbrauch von rund 200 Watt Dauerlast. Das war einfach nicht mehr zeitgemäß.

👉 Also habe ich nach einer Lösung gesucht, die Leistung, Energieeffizienz und Flexibilität verbindet.

🛒 Transparenzhinweis

Dieser Beitrag entstand in Kooperation mit Ugreen. Meine Meinung bleibt wie immer unabhängig und ehrlich.

Die folgenden Links sind Werbelinks im Rahmen meiner Kooperation mit UGREEN.


👉 Hier findest du die UGREEN NAS Systeme aus dem Video

🌐 UGREEN Website
📦 UGREEN NAS Collection
UGREEN NAS DXP4800 Plus

🛒 Amazon
📦 UGREEN NAS Collection
UGREEN NAS DXP4800 Plus


Warum die Wahl auf Ugreen fiel

Ich habe in den letzten Jahren viele Systeme ausprobiert und gebastelt. Das macht Spaß, kostet aber enorm viel Zeit. Mit Ugreen habe ich ein System gefunden, das out of the box zuverlässig funktioniert, gleichzeitig aber so offen ist, dass ich mein eigenes Betriebssystem installieren kann – egal ob Proxmox, Unraid oder TrueNAS.

Diese Offenheit unterscheidet Ugreen von vielen klassischen NAS-Herstellern. Hier bekomme ich hochwertige Hardware, auf der ich machen kann, was ich möchte.


Ugreen DXP8800 Plus – Mein Power-NAS im Detail

Das 8-Bay NAS DXP8800 Plus bildet das Herz meines neuen Systems. Besonders wichtig waren für mich folgende Punkte:

  • 2× 10 Gbit RJ45 Ethernet → flexibel einsetzbar, ohne SFP+-Zwang
  • X86 Intel® Core™ i5 12. Gen 10 Kerne 12 Threads → starke Leistung für Virtualisierung
  • Arbeitsspeicher: 8 GB standardmäßig, offiziell bis 64 GB erweiterbar – inoffiziell sogar 2× 48 GB, also 96 GB (läuft bei mir stabil)
  • 3× NVMe-Slots, inkl. OS-Platte
  • PCIe-Slot für Erweiterungen (z. B. Coral TPU für Frigate für Kameraüberwachung)
  • Sehr viele USB-Schnittstellen, die sich ideal für Smart-Home-Geräte eignen

Performance & CPU-Auslastung

Im Alltag läuft bei mir Proxmox als Hypervisor. Die CPU-Auslastung liegt im Schnitt nur bei 4–7 %, obwohl mehrere VMs aktiv sind. Das bedeutet: viel Luft nach oben für weitere Dienste.

Energieverbrauch

Ein entscheidender Faktor für mich war der Stromverbrauch.

  • Idle: 40–60 Watt
  • Last (Parity-Build, Backups): bis zu 100 Watt

Verglichen mit meinem alten Setup (200 Watt) spare ich also rund 50 % Energie, bei gleichzeitig deutlich mehr Leistung.

Altes Setup

Vorher

Neues Setup


Mein Setup mit Proxmox und Unraid

Auf dem DXP8800 Plus läuft Proxmox. Darauf habe ich mehrere virtuelle Maschinen eingerichtet:

  • Home Assistant → meine zentrale Smart-Home-Steuerung
  • Paperless NGX → digitales Dokumentenmanagement
  • Unraid als VM → für flexiblen Datenspeicher
  • Proxmox Backup Server → für inkrementelle Backups

Warum Unraid? Für mich hat es gegenüber ZFS zwei klare Vorteile:

  1. Platten schlafen legen: Ich greife oft nur auf eine Platte zu. Das spart Energie.
  2. Gemischte Festplattengrößen: Ich kann vorhandene Platten nutzen und das System nach und nach erweitern.


Backup-Strategie mit zwei Ugreen NAS

Datensicherheit ist mir extrem wichtig. Daher setze ich auf eine Kombination aus Hauptsystem (DXP8800 Plus) und Backup-System (DXP4800 Plus).

  • Das DXP8800 Plus läuft 24/7 und hostet alle VMs sowie die Daten.
  • Das DXP4800 Plus startet einmal pro Woche automatisch, führt Backups durch und fährt danach wieder herunter.

Proxmox Backup Server im Einsatz

Ich nutze Proxmox Backup Server, der inkrementell und mit Deduplizierung arbeitet. Beim ersten Lauf dauert ein Backup noch lange, danach nur noch rund 40–45 Minuten bei meinen 3 TB Daten.

Zusätzlich laufen:

  • Garbage Collection Jobs → alte Daten werden endgültig entfernt
  • Verify Jobs → Backups werden täglich geprüft

Damit bin ich sicher, dass meine Daten nicht nur gespeichert, sondern auch konsistent und überprüft sind.


Ugreen DXP4800 Plus – der kompakte Bruder

Das 4-Bay NAS DXP4800 Plus ist kompakter und günstiger, aber keineswegs schwach. Es bietet:

  • X86 Intel® Pentium® Gold 12. Gen 5 Kerne 6 Threads
  • 1× 10 Gbit + 1× 2,5 Gbit RJ45
  • Bis zu 64 GB RAM – inoffiziell sogar 2× 48 GB, also 96 GB (läuft bei mir stabil)
  • Viele USB-Ports
  • Stabile Performance mit Ugreen OS

Für alle, die kein alternatives Betriebssystem installieren wollen, reicht das mitgelieferte Ugreen OS vollkommen aus.


Smart Home Integration

Ein spannender Punkt ist für mich die Smart-Home-Anbindung. Über Proxmox habe ich problemlos USB-Geräte durchgereicht, z. B.:

  • Homematic-Stick für Homematic IP-Geräte
  • Weitere Smart-Home-Adapter für Zigbee oder Z-Wave
  • PCIe-Erweiterung für Frigate zur Kameraüberwachung

Damit wird das NAS zum zentralen Smart-Home-Server, der deutlich mehr kann als nur Daten speichern.


Vergleich mit anderen Herstellern

Ich habe viele Systeme getestet. Hier mein persönlicher Vergleich:

  • Synology
    • Sehr gutes OS, viele Funktionen
    • ABER: Festplattenzwang → nur eigene, überteuerte Platten erlaubt
    • Für mich ein klares No-Go
  • QNAP
    • Funktionsreich und flexibel
    • Aber immer wieder technische Probleme (z. B. Power-On-Fehler, Docker-Bugs)
  • Asustor
    • Guter Funktionsumfang, OS flexibel
    • Verarbeitung eher einfach (viel Plastik)
  • Ugreen
    • Hochwertige Aluminium-Gehäuse
    • Magnetische Staubfilter, durchdachte HDD-Rahmen
    • Frei wählbares Betriebssystem
    • Sehr stabile Performance


Was mir gefällt – und wo es Kritik gibt

Vorteile

✔️ Offenes System (Proxmox, Unraid etc. laufen problemlos)
✔️ Sehr starke Hardware
✔️ Energieeffizient im Vergleich zu meinem alten Setup
✔️ Viele durchdachte Details (magnetische Staubfilter, einfache HDD-Rahmen)
✔️ Hochwertige Verarbeitung

Kritik

❌ Kein ECC-RAM (wäre für Enterprise sinnvoll)


Fazit: Ugreen ist für mich die beste Wahl

Nach fast zwei Monaten intensiver Nutzung kann ich sagen: Ugreen NAS-Systeme sind eine echte Alternative zu Synology und QNAP.

  • Das DXP8800 Plus ist perfekt für Power-User und Virtualisierer.
  • Das DXP4800 Plus eignet sich ideal für kompaktere oder Einsteiger-Setups.

Für mich persönlich ist Ugreen derzeit die beste Kombination aus Leistung, Energieeffizienz und Flexibilität. Ich spare Strom, habe mehr Power und gleichzeitig ein sauberes, durchdachtes Setup.


Ausblick

In den kommenden Wochen werde ich in separaten Beiträgen und Videos zeigen:

  • Wie man Proxmox auf dem Ugreen NAS installiert
  • Wie Unraid als VM läuft
  • Wie ich mein Backup-System mit Proxmox Backup Server optimiert habe
  • Welche Smart-Home-Szenarien ich mit der neuen Hardware umsetze

👉 Abonniere meinen YouTube-Kanal Smart Home & more und bleib dran!


Home Assistant Medikamente Erinnerung – So richtest du die Erinnerung mit Blueprint ein

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Home Assistant Medikamente Erinnerung – So richtest du die Erinnerung mit Blueprint ein

Viele meiner Videos und Blogbeiträge drehen sich um klassische Smart-Home-Themen wie Lichtsteuerung, Heizung oder Anwesenheitserkennung. Doch manchmal bekomme ich Anfragen aus der Community, die mich wirklich zum Nachdenken bringen. So auch dieses Mal: Ein Zuschauer schrieb mir, dass er sich wünscht, zuverlässig daran erinnert zu werden, seine Medikamente einzunehmen. Eine einfache, aber unglaublich wichtige Funktion, die Home Assistant leisten kann.

In diesem Beitrag zeige ich dir Schritt für Schritt, wie du eine Home Assistant Medikamente Erinnerung mit einem Blueprint umsetzt. So kannst du dich oder deine Angehörigen zuverlässig daran erinnern lassen, Tabletten rechtzeitig einzunehmen – direkt per Push-Benachrichtigung aufs Smartphone.


Warum dieses Thema so wichtig ist

Smart Home bedeutet für mich nicht nur Komfort oder Spielereien, sondern auch echte Unterstützung im Alltag. Besonders ältere Menschen oder Personen, die regelmäßig Medikamente einnehmen müssen, profitieren von einer automatisierten Erinnerung.

Mit Home Assistant können wir genau das umsetzen:

  • Eine Push-Benachrichtigung erinnert dich zur festgelegten Uhrzeit.
  • Du kannst direkt in der App bestätigen, ob du die Medikamente genommen hast.
  • Der Status lässt sich zusätzlich im Dashboard anzeigen und nachverfolgen.

👉 Damit wird Home Assistant zu einer echten Alltagshilfe.


Erste Überlegungen: Automatisierung oder Blueprint?

Mein erster Gedanke war: Ich könnte eine Automatisierung selbst schreiben. Das ist möglich, setzt aber einiges an Vorwissen voraus und kann schnell komplex werden. Da nicht jeder tief in YAML und Automatisierungen einsteigen möchte, habe ich nach einer einfacheren Lösung gesucht – und bin fündig geworden.

Die Lösung: Ein fertiger Blueprint aus der Home Assistant Community. Damit lassen sich Erinnerungen in wenigen Schritten umsetzen – auch für Einsteiger.


Voraussetzungen

Um die Home Assistant Medikamente Erinnerung einzurichten, benötigst du:

  • Ein funktionierendes Home Assistant Setup
  • Die Home Assistant Companion App (iOS oder Android)
  • Ein Smartphone, das Push-Benachrichtigungen empfangen kann

Die Companion App ist kostenlos im App Store oder Google Play Store verfügbar. Darüber erhältst du die Erinnerungen und kannst direkt bestätigen, ob du die Medikamente genommen hast oder nicht.


Blueprint installieren

Der von mir getestete Blueprint stammt von Matthieu Bourgain. Du findest ihn über GitHub oder direkt über die Community-Seite.

  1. Klicke auf Import Blueprint to my Home Assistant (wahlweise iOS oder Android).
  2. Wähle deine Home Assistant Instanz aus.
  3. Importiere den Blueprint mit dem Namen Medication Reminder.

Nach dem Import findest du ihn unter:
Einstellungen → Automatisierungen & Szenen → Blueprints


Blueprint konfigurieren

Nach dem Import kannst du deine Erinnerung individuell einrichten. Die wichtigsten Einstellungen sind:

  • Uhrzeit: Wann soll die Erinnerung kommen? (z. B. 17:00 Uhr)
  • Gerät: An welches Smartphone soll die Benachrichtigung geschickt werden?
  • Input Boolean: Damit kannst du den Status im Dashboard darstellen.

So legst du im Dashboard ein sichtbares Element an, das dir jederzeit zeigt, ob die Pille schon genommen wurde.

input_boolean:
  pill_1:
    name: Pille 1
    icon: mdi:pill


Benachrichtigungen einrichten

Der Blueprint erlaubt es dir, Push-Nachrichten mit interaktiven Buttons zu versenden. So kannst du wählen zwischen:

  • Genommen → Der Status wird gesetzt, die Erinnerung ist erledigt.
  • Später erinnern → Du wirst nach einer festgelegten Zeit (z. B. 10 Minuten) erneut erinnert.
  • Überspringen → Erinnerung wird für diesen Tag beendet.

Das Ganze lässt sich zusätzlich im Logbuch nachverfolgen, sodass du später nachvollziehen kannst, wann und wie die Bestätigung erfolgt ist.


Erinnerung an bestimmten Tagen

Vielleicht willst du nicht jeden Tag an dieselben Medikamente erinnert werden. Auch das ist möglich.

Mit einem kleinen YAML-Snippet kannst du die Erinnerung auf bestimmte Wochentage beschränken:

condition:
  - condition: time
    weekday:
      - mon
      - tue
      - wed
      - thu
      - fri

So wird die Erinnerung z. B. nur werktags ausgelöst.

Hier nochmal ein Beispiel mit allen Wochentagen und Aufruf des Blueprint im Yaml Code.


Mehrere Medikamente verwalten

Du brauchst mehr als eine Erinnerung? Kein Problem:

  • Einfach unter Blueprints den Blueprint aufrufen und daraus eine neue Automatisierung erstellen.
  • Neue Uhrzeit und neues Input Boolean anlegen
  • Im Dashboard kannst du beliebig viele Medikamente darstellen

Damit lassen sich auch mehrere Tabletten zu unterschiedlichen Uhrzeiten zuverlässig abbilden.


Mein Fazit

Die Home Assistant Medikamente Erinnerung ist ein Paradebeispiel dafür, wie Smart Home echten Mehrwert im Alltag bringt. Gerade ältere Menschen oder Familienmitglieder können so zuverlässig unterstützt werden.

Für mich persönlich ist das ein spannender Schritt, weil es zeigt: Smart Home ist nicht nur Komfort, sondern auch eine sinnvolle Alltagshilfe.

Wenn du eigene Ideen oder Erweiterungen hast, schreib sie mir gerne in die Kommentare – gemeinsam können wir solche Lösungen noch besser machen.


✅ Zusammenfassung

  • Ein Zuschauerwunsch brachte mich auf die Idee, eine Home Assistant Medikamente Erinnerung einzurichten.
  • Mit einem Blueprint geht das schnell und einfach.
  • Push-Benachrichtigungen mit Bestätigungsbuttons erinnern zuverlässig.
  • Logbuch & Dashboard geben zusätzliche Kontrolle.
  • Mit YAML kannst du die Erinnerung auf bestimmte Wochentage beschränken.

Damit vergisst du nie wieder deine Tabletten – und setzt Home Assistant sinnvoll für die Gesundheit ein.

EVCC Schnellstart: Neues Raspberry‑Pi‑Image & Home‑Assistant‑Integration Schritt für Schritt

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Einleitung

In diesem Beitrag erfährst du, wie du die Open‑Source‑Software EVCC mithilfe eines vorkonfigurierten Raspberry‑Pi‑Images in kürzester Zeit startklar machst. Ich zeige dir, welches Material du benötigst, wie das Image auf die SD‑Karte kommt, wie du den Pi einrichtest und wie du EVCC anschließend in Home Assistant integrierst. Ideal für alle, die ohne großen Linux‑Aufwand ins Überschussladen einsteigen wollen.

Das brauchst du*

  • Raspberry Pi: Modell 4 oder ein leistungsschwächeres Modell reicht aus.
  • Micro‑SD‑Karte: 16 GB Speicher genügen – greif zu einer soliden, günstigen Karte.
  • SD‑Karten‑Adapter: Damit du die Karte an deinem Rechner beschreiben kannst.
  • Netzteil & optional LAN‑Kabel: Das Setup lässt sich bequem per WLAN erledigen.

Raspberry Pi 4 4GB Starter-Kit | 5V 3A USB-C Netzteil | Gehäuse | Kühlkörper | Raspberry Pi 4 Model B 4 GB RAM

  • Raspberry Pi 4 Model B 4GB
  • Raspberry Pi 4 Gehäuse rot/weiß
  • Raspberry Pi 4 Netzteil 5.1V, 3A / 15W weiß
  • 4 Kühlkörper

Image auf die Karte schreiben

  1. Raspberry Pi Imager installieren: Lade das Tool von der offiziellen Raspberry‑Pi‑Website herunter.
  2. Image auswählen: Im Imager unter „Other Specific Purpose OS“ die EVCC‑Variante aus dem Bereich „Home Automation/Home Assistant“ wählen.
  3. Ziel wählen: Deine Micro‑SD‑Karte auswählen und bestätigen, dass sie überschrieben werden darf.
  4. Image schreiben: Der Imager installiert das Betriebssystem – ein paar Minuten später ist die Karte einsatzbereit.

Raspberry Pi booten und verbinden

  • Karte einsetzen & Pi starten. Warte, bis der Pi hochgefahren ist.
  • Mit dem WLAN „evcc‑setup“ verbinden. Die temporäre SSID erscheint nach dem Start.
  • Eigenes WLAN konfigurieren. Wähle dein Heimnetz aus, gib das Passwort ein und speichere die Konfiguration.
  • Adminoberfläche aufrufen. Öffne https://evcc.local:9090 im Browser. Beim ersten Besuch meldest du dich mit „admin/admin“ an und legst ein eigenes Passwort fest.

EVCC konfigurieren: Wallbox & PV‑Anlage

Sobald EVCC läuft, musst du mindestens einen Ladepunkt definieren, damit die Software startet. Wenn du noch keine eigene Wallbox anschließen möchtest, reicht für Testzwecke die „Demo‑Wallbox“:

  • Wallbox hinzufügen: In der Konfigurationsoberfläche auf „Ladepunkt hinzufügen“ klicken und die generische Demo‑Wallbox auswählen.
  • Energiequelle einrichten: Unter „Netzanschluss“ deinen Wechselrichter (z. B. SolarEdge) eintragen: IP‑Adresse und Modbus‑Port angeben und die Verbindung testen.
  • PV‑Anlage hinterlegen: Optional fügst du deine PV‑Anlage hinzu, um die erzeugte Leistung in EVCC zu nutzen.

Nach dem Speichern und einem kurzen Neustart zeigt die EVCC‑Oberfläche aktuelle Leistungswerte und ist einsatzbereit.

Integration in Home Assistant

Viele Anwender koppeln EVCC mit Home Assistant, um Ladezustände, PV‑Leistung und andere Daten zentral zu verwalten. Mit dem Community‑Store HACS klappt das ohne MQTT‑Konfiguration:

  1. SSH & Web‑Terminal installieren: In Home Assistant unter „Einstellungen → Add‑on Store“ das Add‑on „SSH & Web Terminal“ hinzufügen und ein eigenes Passwort setzen.
  2. HACS installieren: Den Installationsbefehl (siehe Originalvideo bzw. Blogbeitrag) im Terminal ausführen. Nach der Installation HACS in der Seitenleiste aktivieren.
  3. EVCC‑Integration laden: Über den Link auf der Github Seite die evcc HACS Integration von @marq24 installieren. Danach in Home Assistant unter „Einstellungen → Geräte & Dienste → Integration hinzufügen“ „EVCC“ auswählen und https://evcc.local oder die IP des Raspberry Pi eingeben.
  4. Entitäten nutzen: Nach erfolgreicher Einrichtung stehen dir sämtliche EVCC‑Sensoren (PV‑Leistung, Ladezustand etc.) ohne weitere Konfiguration zur Verfügung.

Fazit

Das neue Raspberry‑Pi‑Image macht EVCC für Einsteiger besonders attraktiv. Innerhalb weniger Minuten läuft die Software auf einem separaten Pi, und dank HACS ist auch die Integration in Home Assistant ein Kinderspiel. Wer EVCC bislang direkt auf seinem Home‑Assistant‑Server betrieben hat, sollte über einen dedizierten Pi nachdenken – als Backup‑System oder einfach zur Trennung der Funktionen.

Hat dir diese Schritt‑für‑Schritt‑Anleitung geholfen? Dann hinterlasse gern einen Kommentar und teile den Beitrag. Für weitere Anleitungen und Smart‑Home‑Tipps abonniere meinen Newsletter – so verpasst du keine neuen Beiträge mehr!