Unraid unter Proxmox installieren – Mein komplettes HomeLab-Setup

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Unraid unter Proxmox installieren – Mein komplettes HomeLab-Setup

In diesem Beitrag möchte ich dir zeigen, wie ich Unraid unter Proxmox in meinem HomeLab betreibe – und warum dieses Setup für mich aktuell die beste Kombination aus Energieeffizienz, Flexibilität und Performance bietet. Ich nutze Proxmox schon lange als zentrale Virtualisierungsebene. Die Möglichkeit, darauf wiederum Unraid zu virtualisieren, ist für mich ein idealer Weg, moderne NAS-Funktionen mit der Flexibilität eines Linux-Hypervisors zu verbinden.

Gerade im privaten Umfeld spielt Stromverbrauch eine immer wichtigere Rolle. Während ZFS mit TrueNAS im professionellen Einsatz für mich der absolute Favorit ist, lege ich zuhause Wert darauf, dass Platten zuverlässig schlafen können und nicht permanent durchlaufen müssen. Und genau dort punktet Unraid enorm.


Warum ich Unraid unter Proxmox nutze

Zu Beginn war ich selbst skeptisch, ob eine Virtualisierung von Unraid überhaupt sinnvoll ist. In der Praxis hat sich das aber schnell als echte Lösung herausgestellt. Ich habe einerseits die komplette Kontrolle von Proxmox inklusive Snapshots, VMs, Netzwerkmanagement und ZFS-Speicher für meine virtuellen Maschinen. Gleichzeitig nutze ich die Stärken von Unraid, nämlich ein extrem flexibles Array, Caching, schlafende HDDs, Docker-Management und eine sehr unkomplizierte Erweiterbarkeit.

Was viele nicht wissen: Auf dem USB-Stick wird fast nie geschrieben. Der Stick dient in erster Linie als Boot-Medium, und lediglich Änderungen an der Konfiguration werden gespeichert. Dadurch ist er erstaunlich langlebig. Ich verwende Sticks mit garantiert eindeutiger GUID, da Unraid die Lizenz an diese ID bindet.


Mein Hardware-Setup*

In meinem Video habe ich ein UGREEN 4-Bay NAS als Beispiel genutzt. Mein produktives System ist das 8-Bay Modell mit deutlich mehr Kapazität. Die Vorgehensweise ist identisch, weshalb sich das Tutorial flexibel auf verschiedenste Hardware übertragen lässt.

In meinem Testsystem stecken vier 4-TB-HDDs, zwei NVMe-SSDs im ZFS-Mirror (für Proxmox selbst) und eine virtuelle 250-GB-Disk, die ich später als Cache-Laufwerk für Unraid verwende. Zusätzlich habe ich den Arbeitsspeicher auf 48 GB erweitert, was im Alltag angenehm ist, aber für Unraid selbst gar nicht nötig wäre.


Vorbereitung des USB-Sticks*

Um Unraid nutzen zu können, lade ich das offizielle Flash-Tool herunter und spiele die aktuelle Version auf einen frisch formatierten Stick. Das geht wirklich unkompliziert. Wichtig ist nur, dass die GUID korrekt erkannt wird und der Stick zuverlässig von der Hardware gebootet werden kann. Danach stecke ich ihn in das UGREEN-NAS und kann in Proxmox direkt loslegen.

Unraid unter Proxmox

Die virtuelle Maschine in Proxmox

Die VM für Unraid ist schnell erstellt. Ich vergebe ihr einen Namen, lasse das Installationsmedium leer und wähle als Maschinentyp q35, damit alle modernen PCIe-Funktionen verfügbar sind. Anschließend stelle ich 4 GB Arbeitsspeicher und zwei bis vier CPU-Kerne bereit. Eine virtuelle Festplatte lege ich an dieser Stelle noch nicht an, da Unraid später die tatsächlichen HDDs direkt erhält.

Damit die VM korrekt startet, passe ich anschließend die Bootreihenfolge an. Zuerst soll der USB-Stick booten. Die restlichen Order sind eigentlich überflüssig.


Passthrough von USB-Stick und SATA-Controller

Das ist der wichtigste Schritt des gesamten Setups. Der USB-Stick wird anhand seiner Vendor- und Device-ID durchgereicht. Das sorgt dafür, dass Unraid beim Start genau diesen Stick erkennt – unabhängig davon, an welchem Port er steckt.

Noch wichtiger ist das Durchreichen des SATA-Controllers. Ich wähle also unter den PCI-Geräten den kompletten Controller aus, aktiviere „Alle Funktionen“ und reiche ihn mit PCIe-Unterstützung an die VM durch. Das bedeutet: Unraid sieht die HDDs so, als wären sie direkt über SATA angeschlossen. Keine virtuelle Zwischenschicht, keine Geschwindigkeitseinbußen – echtes Bare-Metal-Feeling.

Die zusätzliche virtuelle SCSI-Disk lege ich als SSD-emuliertes Laufwerk an. Sie dient später als Cache-Drive und trägt massiv dazu bei, dass die physikalischen HDDs lange schlafen können.


Der erste Start von Unraid

Nach dem Start bootet Unraid direkt vom USB-Stick. Sobald eine IP vergeben wurde, öffne ich die Weboberfläche und vergebe zuerst ein Administrator-Passwort. Danach starte ich die kostenlose Trial oder nutze meinen vorhandenen Lizenzschlüssel.

Es ist wichtig zu wissen, dass die Lizenz fest an die eindeutige Stick-ID gebunden ist. Wechselst du den Stick, musst du die Lizenz übertragen – daher lohnt sich ein qualitativ hochwertiges Modell.


Einrichtung des Arrays

Jetzt geht es ans Herzstück von Unraid: Das Array. Ich entscheide mich bewusst für ein klassisches Setup mit Paritätsfestplatte. Für mich ist das der beste Kompromiss zwischen Sicherheit, Flexibilität und Energieverbrauch. Bei einem ZFS-System müssen alle Platten permanent laufen, da die Datenstruktur über mehrere Platten gleichzeitig verteilt ist. Unraid hingegen erlaubt es, Platten einzeln schlafen zu legen, solange sie nicht aktiv benötigt werden.

Ich ordne die Platten der Reihe nach zu, vergebe die Parity-Disk und ordne zwei oder drei weitere HDDs als Datenlaufwerke zu. Das Cache-Drive definiere ich ebenfalls direkt, sodass größere Schreibvorgänge zunächst auf den schnellen virtuellen NVMe-Speicher gehen.

Der erste Parity-Build dauert mehrere Stunden, was normal ist. Während dieser Zeit sollten möglichst keine Daten auf das Array geschrieben werden.


Energie sparen mit Spindown und Cache

Einer der Hauptgründe, warum ich Unraid privat so gerne nutze, ist der deutlich geringere Stromverbrauch. Sobald die Parität erstellt wurde, stelle ich das automatische Einschlafen der HDDs ein. Bei mir sind 15 Minuten ideal, aber 30 Minuten sind ebenfalls ein guter Wert, wenn regelmäßig kleinere Zugriffe stattfinden.

Damit die Platten wirklich zuverlässig schlafen können, ist das Cache-Drive entscheidend. Es nimmt alle kurzfristigen Schreibvorgänge auf, und erst später bewegt der sogenannte „Mover“ die Daten auf die HDDs. Ich lasse den Mover bewusst zu Zeiten laufen, in denen meine PV-Anlage Strom liefert – idealerweise mittags.

In Tests liegt mein System im Idle bei rund 30 W. Während der Parität waren es etwa 57 W. Mit größeren HDDs (7 200 U/min) steigt der Unterschied noch stärker an, weshalb ein stromsparendes Setup auf Dauer bares Geld spart.


Netzwerk-Setup und 10-Gigabit-Anbindung

Unraid bekommt bei mir zunächst eine DHCP-Adresse, die ich im Router fest verankere. Für besonders schnelle Kopiervorgänge nutze ich zusätzlich die 10-Gigabit-Schnittstelle des UGREEN-NAS. Diese reiche ich ebenfalls an die VM durch und vergebe ihr eine eigene statische IP.

In meinen Tests erreiche ich über die 10-GbE-Verbindung bei Kopien auf den Cache problemlos Übertragungsraten von über 200 MB/s. Gerade wenn ich Daten auf das NAS oder zwischen VMs verschiebe, bringt das spürbare Vorteile. Ich weiß, die 10GbE Schnittstelle sollte ja viel mehr können. Aber meine VM , von der ich aus kopiere liegt auf langsamen SSD Speicher, da geht nicht mehr. Mit einem physischen Rechner und einer schnellen NVME lassen sich aber die Bandbereiten fast vollständig ausnutzen. Mir geht es hier aber primär um Energie und nicht um Performance.


Docker, Apps und Benutzer

Nachdem das System steht, aktiviere ich Docker und installiere das Community-Apps-Plugin. Damit stehen mir hunderte Anwendungen direkt mit einem Klick zur Verfügung – von Medienservern über Backuplösungen bis hin zu KI-Tools.

Anschließend lege ich Benutzer und Freigaben an. Der typische Workflow sieht bei mir so aus, dass ich ein Share erst auf den Cache schreiben lasse und der Mover die Dateien später automatisch ins Array verschiebt. Das sorgt dafür, dass die HDDs über weite Strecken komplett schlafen können.


Warum Unraid für mein HomeLab bleibt

Auch wenn ich im professionellen Umfeld TrueNAS weiterhin sehr gerne einsetze, ist Unraid für mein HomeLab inzwischen die erste Wahl. Es erlaubt mir, flexibel Platten zu kombinieren, ja, es sind sogar Festplatten mit unterschiedlichen Größen möglich, sie einzeln schlafen zu lassen, Docker bequem zu verwalten und die Hardware sehr frei zu konfigurieren. Energietechnisch habe ich damit ein System, das im Leerlauf nicht mehr verbraucht als ein kleiner Büro-PC – und gleichzeitig jederzeit erweiterbar bleibt.

Wenn du selbst ein HomeLab aufbaust und zwischen ZFS/TrueNAS und Unraid schwankst, kann ich dir nur empfehlen, einmal Unraid auszuprobieren. Gerade die Mischung aus Einfachheit, Flexibilität und Energieeffizienz macht das System im privaten Einsatz extrem attraktiv. Auch Unraid beherrscht mittlerweile ZFS. Aber der Fokus lag bei mir auf die Einsparung von Energie.

Weitere Blogbeiträge zum Thema HomeLab:


Ugreen NAS im Test – Mein Setup mit dem DXP8800 Plus & DXP4800 Plus für Smart Home und Proxmox

Ugreen NAS mit Proxmox – So baust du dir dein eigenes HomeLab

Ugreen NAS mit TrueNAS – mein Setup unter Proxmox, ZFS & SMB-Freigaben im Praxistest

Ugreen NAS mit TrueNAS – mein ehrlicher Erfahrungsbericht im HomeLab

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Ugreen NAS mit TrueNAS

In meiner HomeLab-Reihe wollte ich unbedingt ausprobieren, wie sich ein Ugreen NAS mit TrueNAS in der Praxis schlägt.
Ich habe ja bereits gezeigt, wie man Proxmox auf dem Ugreen NAS installiert und welche Möglichkeiten sich damit ergeben. Doch die meisten, die ein solches System aufbauen, wünschen sich auch klassische NAS-Funktionen: Datenspeicher, SMB-Freigaben, Backups und ein stabiles Dateisystem.

In diesem Beitrag zeige ich dir Schritt für Schritt,
wie ich TrueNAS als virtuelle Maschine unter Proxmox eingerichtet habe,
welche Fallstricke es gab – und warum ich mich am Ende gegen TrueNAS in meinem HomeLab entschieden habe.


Warum überhaupt TrueNAS?

Ich bin ein großer Fan modularer Systeme. Proxmox läuft auf meinem Ugreen DXP4800 Plus bereits als Hypervisor, und damit lassen sich wunderbar virtuelle Maschinen oder Container verwalten.
Aber ein Hypervisor allein ersetzt kein NAS. Deshalb lag es nahe, ein TrueNAS-System zu virtualisieren, um so die Vorteile beider Welten zu kombinieren:
Virtualisierung, Datensicherheit, ZFS-Pool, Freigaben – alles in einem Gerät.

Das Ganze ist kein Sponsored-Post. Ugreen hat mir zwar die Geräte (DXP4800 Plus und DXP8800 Plus) kostenlos zur Verfügung gestellt, aber die Entscheidung, wie ich sie einsetze und bewerte, liegt komplett bei mir.

Transparenz

Die in diesem Blogbeitrag vorgestellten Links sind Affiliate Links. D.h. , wenn ihr über diesen Link ein Produkt erwerbt, dann erhalte ich eine kleine Provision, ihr zahlt aber nicht mehr. Ihr unterstützt damit meine Arbeit. Herzlichen Dank dafür.


Vorbereitung & TrueNAS-Image

Zuerst benötigst du das Installations-Image. Das bekommst du auf der offiziellen TrueNAS-Website unter
👉 Support → Resources → TrueNAS Community Edition

Ein Login ist nicht nötig – einfach „No thank you, I have already signed up“ wählen und die neueste Stable-Version herunterladen.
Ich habe das Image anschließend in meinen Download-Ordner gelegt, um es danach in Proxmox hochzuladen.


Proxmox-Grundlage auf dem Ugreen NAS

In meinem vorherigen Beitrag habe ich bereits erklärt, wie du Proxmox auf dem Ugreen NAS installierst.
Falls du das noch nicht gesehen hast, findest du den Artikel hier:
👉 Proxmox auf Ugreen NAS installieren

Für dieses Setup verwende ich diesmal mein DXP4800 Plus.

Das größere 8800-Modell läuft bei mir bereits produktiv – und genau dort habe ich eine andere Lösung im Einsatz, über die ich später noch sprechen werde.

Mein DXP4800 Plus habe ich um 48 GB RAM erweitert (zusätzlich zu den 8 GB, die ab Werk verbaut sind) und zwei 2 TB NVMe-SSDs verbaut.

Darauf läuft ein ZFS-RAIDZ1-Pool, um Redundanz zu haben.
Das ist zwar kein Muss, aber für mich aus Sicherheitsgründen einfach sinnvoll.


TrueNAS-Image in Proxmox hochladen

Ich lade also das zuvor heruntergeladene TrueNAS-Image in Proxmox hoch.
Das geht erstaunlich schnell – und schon liegt das ISO im lokalen Storage bereit.

Kleiner Tipp:
Wenn du später ähnliche Projekte machst, lohnt sich eine eigene ISO-Library in Proxmox, damit du deine Images zentral verwalten kannst.


Virtuelle Maschine anlegen

Jetzt wird’s spannend: In Proxmox lege ich eine neue virtuelle Maschine an.

  1. Name: TrueNAS
  2. OS: das hochgeladene ISO-Image auswählen
  3. System: Typ Q35
  4. Bios: Default (SeaBIOS)
  5. Disk: 64 GB (Writeback aktiviert, wenn NVMe-Storage)
  6. CPU: 2 Cores
  7. RAM: 8 GB
  8. Netzwerk: Standard (virtio)

Damit ist die Grundkonfiguration fertig.
Bevor ich starte, habe ich noch einen wichtigen Schritt gemacht:
Ich habe den SATA-Controller des Ugreen NAS per PCI-Passthrough an die VM durchgereicht.
Nur so kann TrueNAS später die physischen Festplatten erkennen – inklusive SMART-Werte.


Controller-Passthrough & Festplatten

Beim DXP4800 Plus funktioniert das problemlos.
Beim DXP8800 Plus gibt es zwei Controller, aber nur der erste lässt sich durchreichen.
Für mein Setup war das kein Problem, da ich ohnehin nur vier Platten brauchte und die anderen Platten für andere Anwendungen im Konzept gedacht sind.

Damit TrueNAS auch später nested Virtualisierung oder Apps sauber ausführen kann, wähle ich bei der CPU den Typ „host“ – das ermöglicht maximale Kompatibilität.

Danach starte ich die VM – und der Installer begrüßt mich mit dem bekannten Menü.


TrueNAS Installation

Ich wähle „Install/Upgrade“, nehme die zuvor angelegte virtuelle Disk (64 GB) als Ziel und vergebe ein Passwort.
Wichtig:
Der Login-User heißt seit einiger Zeit truenas_admin (nicht mehr root).

Nach kurzer Installationszeit startet das System neu und zeigt mir eine IP-Adresse – in meinem Fall 192.168.100.152.
Diese rufe ich im Browser auf, logge mich ein und bin direkt auf der Weboberfläche.


Fehler & Korrektur – Controller nachreichen

Beim ersten Start sehe ich allerdings keine Festplatten.
Grund: Ich hatte vergessen, den Controller tatsächlich zuzuweisen.
Also VM ausschalten, in die Hardware-Sektion gehen und folgendes hinzufügen:

Add → PCI Device → Raw Device → ASMedia Serial ATA AHCI Controller → All Functions aktivieren → Add

Nach dem Neustart sind alle Platten sichtbar – inklusive Seriennummern und SMART-Funktionen.


ZFS-Pool anlegen

Jetzt geht es an das Herzstück: den ZFS-Pool.
Ich erstelle einen neuen Pool mit dem Namen zfspool und wähle RAIDZ1 als Layout.
Das bietet mir Datensicherheit, weil eine Platte ausfallen darf, ohne dass Daten verloren gehen.

Zur Erklärung:
Bei vier 8-TB-Platten ergibt sich netto etwa 24 TB nutzbarer Speicher – eine Platte dient der Ausfallsicherheit.

Ich verzichte in meinem Fall auf zusätzliche Cache- oder Log-Drives, da mein Fokus auf Datensicherheit, nicht auf Performance liegt. Außerdem brauche ich die NVMEs in meinem Proxmox Setup noch für weitere virtuelle Maschinen 🙂


SMB-Freigaben & Benutzer

Anschließend lege ich einen neuen Benutzer an (home) und vergebe ein Passwort.
Unter Datasets wähle ich meinen Pool aus und erstelle ein Dataset namens Backup.
Als Preset wähle ich SMB, damit automatisch der passende Dienst aktiviert wird.

Nach dem Speichern fragt mich TrueNAS, ob der SMB-Service gestartet werden soll – natürlich bestätige ich das.
Im nächsten Schritt weise ich meinem Benutzer die entsprechenden Berechtigungen zu:

Edit → Add Item → User auswählen → Apply permissions recursively → Save Access Control List

Danach kann ich auf meinem Windows-Rechner einfach \\192.168.100.152 eingeben, mich mit home anmelden – und sehe sofort meine Freigabe.

Beim Testkopieren erreiche ich die volle Gigabit-Geschwindigkeit, also rund 110 MB/s.


Performance & Stabilität

Die Performance ist beeindruckend.
Selbst bei gleichzeitigen Zugriffen reagiert das System stabil und flüssig.
ZFS ist bekannt für seine Datensicherheit und Integrität, und das merkt man hier deutlich.

Aber: Jede Medaille hat zwei Seiten.
Denn ZFS hat einen hohen RAM-Bedarf und sorgt dafür, dass alle Platten aktiv bleiben, sobald auf den Pool zugegriffen wird.


Energieverbrauch – mein ehrliches Fazit

Ich habe das System mit meinem Home Assistant gemessen:
Das Setup verbraucht rund 48 Watt im Idle-Betrieb.

Das liegt daran, dass bei einem ZFS-Pool alle Festplatten ständig aktiv sind.
Selbst wenn nur auf eine Datei zugegriffen wird, laufen alle vier HDDs mit.
Rechnet man das hoch, sind das schnell 20–30 W Mehrverbrauch gegenüber einem Setup mit Spindown aller Platten. Und gerade bei einem Datengrab braucht man nicht 24/7 Zugriff und die Platten könnten eigentlich in den Spindown gehen.

In meinem HomeLab möchte ich aber effizient arbeiten.
Darum habe ich mich entschieden, künftig auf eine andere Lösung zu setzen: Unraid.
Auch hier würde sich eine ZFS Infrastruktur umsetzen lassen, aber mit den gleichen Thema der Energieeffizienz. Unraid bietet aber auch die Möglichkeit ein Array anzulegen. Das hat zwar keine native ZFS-Struktur, erlaubt aber ebenfalls Datensicherheit über eine Paritätsplatte – und lässt ungenutzte Laufwerke schlafen.

Über meinen Wechsel zu Unraid erzähle ich ausführlich im nächsten Teil der Serie. Wenn dich das interessiert, abonniere meinen Kanal auf youtube und verfolge meine Blog Beiträge.


Fazit: TrueNAS auf dem Ugreen NAS – stark, aber nicht für jeden

Mein Test hat gezeigt:
Ein Ugreen NAS mit TrueNAS unter Proxmox ist absolut machbar – und technisch spannend.
Die Einrichtung ist klar, das System stabil und durch ZFS sehr sicher.

Aber für meinen Einsatzzweck im HomeLab war es nicht die perfekte Lösung.
Der Energieverbrauch ist mir einfach zu hoch, und die permanente Aktivität aller Platten passt nicht zu meinem Konzept eines stromsparenden Setups.

Für alle, die ein reines Daten-NAS mit Fokus auf Stabilität und Redundanz suchen, ist TrueNAS eine hervorragende Wahl.
Wer dagegen Energieeffizienz und Flexibilität im Vordergrund hat, wird mit Unraid oder sogar Proxmox-LXC-Storage-Containern glücklicher.

Ich persönlich bleibe bei meinem Proxmox-Host, kombiniere aber künftig virtuelle Maschinen, Container und ein stromsparendes Storage-System.


Weiterführende Links


Schlusswort

Wenn du gerade ein Ugreen NAS besitzt oder planst, dir eins zuzulegen, dann ist TrueNAS auf jeden Fall einen Blick wert.
Die Einrichtung macht Spaß, du lernst viel über Storage-Konzepte, und du kannst alles flexibel virtualisieren.

Aber wie so oft gilt: Die perfekte Lösung hängt vom eigenen Ziel ab.
Ich wollte mein HomeLab möglichst effizient gestalten – und TrueNAS hat mir gezeigt, wo die Grenzen liegen.

Falls du Fragen hast, schreib’s gerne in die Kommentare bei Youtube oder schau auf meinem YouTube-Kanal vorbei – dort findest du das komplette Video mit allen Details.


Ugreen NAS mit Proxmox – So baust du dir dein eigenes HomeLab

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Einführung

Ugreen hat mit den NAS-Systemen DXP4800 Plus, DXP6800 Plus, DXP8800 Plus und weiteren Varianten richtig starke Geräte auf den Markt gebracht. Was die Hardware angeht, bekommt man für den Preis wirklich viel Leistung. Beim Ugreen OS selbst war ich allerdings für mein Anforderungsprofil nicht ganz glücklich – zu eingeschränkt, zu wenig flexibel. Das trifft aber bei mir auf alle NAS Systeme zu… Also habe ich mir gedacht: Das muss besser gehen.

In diesem Beitrag zeige ich dir daher, wie ich das Ugreen OS sichere, Proxmox auf dem NAS installiere und daraus ein durchdachtes HomeLab-Konzept aufbaue. Wir sprechen also nicht nur über eine Installation – wir erschaffen gemeinsam ein System, das flexibel, performant und zukunftssicher ist.

Transparenz: UGreen hat mir die NAS – Systeme kostenlos zur Verfügung gestellt. Die Produkt Links in diesem Beitrag sind Affiliate Links. Ihr zahlt nicht mehr, ich erhalte allerdings eine kleine Provision.

Ich habe in meinem Setup das UGreen DXP 8800 Plus als Hauptsystem verwendet.

Angebot


UGREEN NASync DXP8800 Plus 8-Bay NAS Server, Intel i5-1235U 10-Kern, 8GB DDR5, 128GB SSD, 2×10GbE, 2×M.2 NVMe, 8K HDMI, 2×Thunderbolt 4, Kompatibel mit Drittanbieter HDD/SSD (Diskless)

  • Zwei 10GbE-Netzwerkanschlüsse: Zwei 10GbE-Hochgeschwindigkeitsnetzwerkanschlüsse, die zu einer Bandbreite von 20 G zusammengefasst werden können, um Downloadgeschwindigkeiten von bis zu 2500 MB/s zu erreichen. Große Dateien lassen sich problemlos übertragen. Die Last zwischen den beiden Portverbindungen kann dynamisch angepasst und ausgeglichen werden, um die Übertragungseffizienz zu verbessern.
  • Beispiellose Verarbeitungsleistung: Mit einem Intel Core i5-Prozessor der 12. Generation mit 10 Kernen und 12 Threads wird die Verarbeitungsleistung im Vergleich zu früheren Prozessoren sprunghaft verbessert.
  • 8-Bay, 256 TB riesiger Datenspeicher: Ausgestattet mit acht SATA- und zwei M.2 NVMe-Laufwerkschächten verfügt das NASync DXP8800 Plus über eine maximale Speicherkapazität von bis zu 256 TB. Speichern Sie Tausende von HD-Filmen, Bildern und Dokumenten und machen Sie NASync zu einer Filmbibliothek, einem Fotoalbum und einem Dateispeicherplatz in einem.
  • Eine umfassende App: Anstatt einzelne Anwendungen für bestimmte Funktionen herunterzuladen, integriert die NAS-App diese Funktionen an einem Ort. Greifen Sie von einem praktischen Ort aus auf Speichermanager, Dateien, Fotos und mehr zu.
  • Professionelle Datensicherheit: Im Vergleich zu Cloud-Laufwerken ermöglicht NASync Benutzern, große Mengen persönlicher Daten auf vertrauenswürdigen lokalen Geräten zu speichern, wodurch Datenverlust und Überwachung weitestgehend verhindert werden. Datenübertragung und Konten können mit professioneller Verschlüsselung und Multi-Faktor-Authentifizierung vollständig geschützt werden.

Wenn ihr in Summe nicht so viel Leistung benötigt, dann lässt sich auch ein sehr gutes Home Lab Setup mit dem DXP 4800 Plus umsetzen. Die ausgeführten Schritte bleiben die Gleichen. Ich will hier gar nicht im Detail auf die Hardware eingehen, dazu gibt es jede Menge guter Reviews auf Youtube. Mir geht es hier um die technische Umsetzung eines Home Lab Konzepts.

Angebot


UGREEN NASync DXP4800 Plus 4-Bay Desktop NAS, Intel Pentium Gold 8505 5-Core CPU, 8GB DDR5 RAM, 128G SSD, 1 * 10GbE, 1 * 2,5GbE, 2*M.2 NVMe-Steckplätze, 4K HDMI, Network Attached Storage (Diskless)

  • 12. Gen 5-Kern Intel Prozessor: Diese leistungsstarke CPU von Intel bietet ein außergewöhnlich flüssiges Erlebnis und sorgt für einen erheblichen Leistungszuwachs im Vergleich zu früheren Generationen.
  • Benutzerfreundliche App: Verwalte deinen Speicher und greife von all deinen Geräten auf deine Dateien zu, ganz einfach mit unserer maßgeschneiderten Software – und das alles ohne mehrere Tools oder komplizierte Drittanbieter-Software. Verfügbar für Android, iOS, Windows, Mac, Webbrowser und Smart-TVs.
  • 4 Bays und maximal 136TB: Die vier SATA-Bays unterstützen jeweils bis zu 30TB. Zusätzlich können zwei kompakte M.2 NVMe SSDs mit jeweils bis zu 8TB installiert werden (für SSD-Caching oder zusätzlichen schnellen Speicher). Bei vollständiger Ausnutzung aller Steckplätze beträgt die maximale Kapazität beeindruckende 136TB.
  • Blitzschnelle 10GbE- und 2.5GbE-Netzwerkanschlüsse: Der NASync DXP4800 Plus bietet Datenraten von bis zu beeindruckenden 1250 MB/s über zwei separate Anschlüsse. Ideal für alle, die eine schnelle und reibungslose Übertragung von 4K-Videos und großen Dateien benötigen.
  • Professionelle Datensicherheit: Mit sicherer Verschlüsselung sind Benutzerkonten und Daten vollständig geschützt.


Mein Plan: Vom NAS zum HomeLab

Ich wollte nicht einfach nur ein NAS betreiben, sondern eine Plattform schaffen, auf der virtuelle Maschinen, Backups und verschiedene Dienste parallel laufen können. Ugreen liefert mit dem DXP8800 Plus eine hervorragende Basis – drei NVMe-Slots, starke Hardware und genügend Platz für mehrere Festplatten.

Geliefert wird das NAS mit 8GB RAM und einer NVME , wo sich das UGREEN OS drauf befindet. Bei mir war eine 128 GB Festplatte verbaut, was für ein Proxmox zunächst ausreichend ist. Die beiden anderen Slots habe ich mit NVME Festplatten von Samsung belegt.

Mein Ziel war:

  • Proxmox als Hypervisor installieren
  • Unraid oder TrueNAS als virtuelles NAS betreiben
  • Backup-Server direkt integrieren
  • alle VMs zentral sichern

Da mir die 8GB RAM für meinen Anwendungsfall nicht genügten, habe ich den RAM um 48GB RAM erweitert. Achtet dabei darauf, dass ihr DDR5 RAM mit 4800 MHz verwendet. Ich habe sehr positive Erfahrungen mit Corsair Vengeance gemacht. Es gehen aber genauso auch andere Hersteller. Als Hinweis sei noch erwähnt, dass in den Spezifikationen von UGREEN angegeben ist, dass lediglich 2×32 GB RAM funktionieren. Das ist aber nicht der Fall, es funktionieren auch 2×48 GB RAM. Ich habe mit einem 48GB RAM Riegel angefangen und zusätzlich den 8GB Riegel belassen. Wenn mein Bedarf an RAM mal steigen sollte, kommt ein weiterer Riegel hinzu.


CORSAIR Vengeance SODIMM DDR5 RAM 48GB (1x48GB) 4800MHz CL40-40-40-77 1.10V Intel XMP 3.0 Laptop-Speicher – Schwarz (CMSX48GX5M1A4800C40)

  • Kompatibel mit nahezu allen Intel-Systemen: Der branchenübliche SODIMM-Formfaktor ist mit einer Vielzahl der gängigen Gaming- und -Performance-Laptops sowie Kompakt-PCs und mit Intel NUC-Kits kompatibel
  • Einfache Installation: Für die Installation in den meisten Laptops wird lediglich ein Schraubendreher benötigt
  • Maximaler Geschwindigkeitsschub: Für kürzere Ladezeiten, Multitasking und weitere Funktionen stellt VENGEANCE SODIMM in kompatiblen Systemen automatisch auf die maximal unterstützte Geschwindigkeit um
  • Umfassend getestete Zuverlässigkeit: Die Module sind gründlich geprüft und getestet, um eine erstklassige Leistung und Zuverlässigkeit zu gewährleisten
  • Kompatibilität: Intel 13th or 14th Gen Mobile-CPUs

Damit das funktioniert, beginne ich mit einem vollständigen Backup des Ugreen-Betriebssystems, bevor es gelöscht wird.


Schritt 1: Backup des Original-Systems mit Clonezilla

Bevor man irgendetwas verändert, sollte man das Ugreen OS vollständig sichern. Ich habe dafür Clonezilla verwendet – ein zuverlässiges Open-Source-Tool, das ein komplettes Image der Festplatte erstellt. Man kann auch die vorhandene NVME mit dem UGreen OS ausbauen und eine andere NVME dafür einbauen, aber warum sollte ich Ressourcen verschwenden, wenn ich doch mit einem Backup ebenfalls das Betriebssystem sauber gesichert bekomme und diesen Zustand jederzeit wiederherstellen kann ?

Vorgehen:

  1. Über KVM-over-IP greife ich auf das NAS zu.
    • Das Gerät simuliert Tastatur, Maus und Monitor über den Browser.
    • Ich kann so ins BIOS oder direkt auf den Installationsprozess zugreifen.

GL.iNet KVM-Fernsteuerung über das Internet, 4K-Auflösung, Tailscale,Fernsteuerung von Tastatur, Video und Maus – ideal für Home-Office, Rechenzentren, IT-Verwaltung und industrielle Anwendungen

  • 【Zuverlässige Fernsteuerung】 Starten Sie defekte Computer neu, installieren Sie das Betriebssystem per BIOS-Steuerung und schalten Sie sie mit einer Zubehörerweiterung sogar aus der Ferne ein. Nie wieder müssen Sie Rechenzentren aufsuchen, um abgestürzte Systeme zu reparieren – ideal für IT-Teams und Smart-Home-Enthusiasten.
  • 【Universelle Kompatibilität & einfache Einrichtung】 Mühelose Verbindung zu Laptops, Desktops, Servern, Industrie-PCs und Streaming-Geräten. Einfache Ein-Klick-Verbindung per App – der zu steuernde Computer benötigt keine zusätzliche Software.
  • 【4K Auflösung & Audio-Unterstützung】 Unterstützung für Gigabit-Netzwerkzugriff. Erleben Sie Desktop-Qualität mit einer Auflösung von 3840 x 2160 bei 30 Hz und einer Verzögerung von < 60 ms. Mit synchronisiertem Audio fühlt sich die Arbeit aus der Ferne so natürlich an, als wäre man vor Ort.
  • 【Sofortige Dateiübertragung】 Bewältigen Sie den Nachteil herkömmlicher KVM-Geräte, Dateien nicht übertragen zu können: Unsere Lösung ermöglicht die nahtlose Dateifreigabe zwischen Geräten – keine lästigen Synchronisierungsprobleme mehr bei der Fernarbeit.
  • 【Zugriff überall und jederzeit】 Sichern Sie sich ständigen Fernzugriff auf Ihre Computer und steigern Sie Ihre Produktivität – egal, ob Sie zu Hause oder unterwegs sind. Geeignet für die Fernarbeit und zum Verwalten mehrerer Computer.

Ich nutze gerne ein KVM over IP Device, weil ich oftmals keine Lust habe einen extra Monitor , Tastatur und Maus anzuschließen. So kann ich alles bequem über meinen PC im Browser konfigurieren.

Der nächste Schritt ist nun das Clonezilla Image zu booten und wie in im Video gezeigt die Einstellungen vorzunehmen und ein Backup des UGreen OS durchzuführen. Das Clone Zilla Boot Image findet ihr hier . Ich habe die „stable“ Variante gewählt. Als Speicherziel für das Backup habe ich auf einem anderen NAS eine SMB/CIFS Freigabe erstellt. Hier könnt ihr jede beliebige Freigabe verwenden.

Achte unbedingt darauf, im BIOS den Watchdog zu deaktivieren, sonst startet das NAS mitten in der Sicherung neu.

Nach Abschluss hatte ich ein Image von etwa 3,4 GB Größe – klein, aber mit allem Wichtigen. Damit kann ich jederzeit das Originalsystem wiederherstellen.


Schritt 2: Installation von Proxmox VE 9.0.1

Jetzt geht’s ans Eingemachte: Proxmox installieren.
Ich habe die aktuelle ISO (Version 9.x) heruntergeladen und sie über mein KVM-System gemountet.

Proxmox Download Link

Wichtige Punkte bei der Installation:

  • Installationsziel: die interne 128-GB-SSD
  • Sprache und Tastatur: Deutsch
  • Netzwerk manuell konfigurieren, z. B.:
    • IP: 192.168.100.2
    • Gateway: 192.168.100.1/23
    • DNS: 1.1.1.1
  • Root-Passwort und E-Mail hinterlegen
  • automatischen Reboot aktivieren

In der Regel werden euch die Netzwerkeinstellungen korrekt vorgegeben. Bei mir war es allerdings so, dass er das /23 Netzwerk scheinbar nicht richtig erkannt hat. Insofern habe ich die Settings manuell anpassen müssen. Wenn ihr ein /24 er Netzwerk habt, sollte das ohne manuelle Anpassungen funktionieren.

Nach dem Neustart kann man sich über den Browser anmelden:

https://192.168.100.2:8006

Standard-Login ist root, gefolgt vom Passwort aus der Installation.


Schritt 3: Repositories und Updates einrichten

Nach der Erstinstallation meldet sich Proxmox mit dem Hinweis auf eine fehlende Subscription.
Das kann man entweder offiziell lizenzieren oder – wie ich es gemacht habe – mit einem kleinen Helfer-Script umgehen.

Proxmox Helper Scripts PVE Post Install

Ich nutze das Proxmox VE Helper Script, um die richtigen Repositories zu aktivieren:

  1. Enterprise-Repos deaktivieren
  2. No-Subscription-Repos aktivieren
  3. Test-Repos deaktivieren
  4. Subscription-Hinweis ausschalten
  5. System aktualisieren

bash -c "$(curl -fsSL https://raw.githubusercontent.com/community-scripts/ProxmoxVE/main/tools/pve/post-pve-install.sh)"

Danach läuft ein automatischer Update-Prozess. Wichtig: Das Terminal offen lassen – der Vorgang dauert einige Minuten. Nach dem anschließenden Reboot ist das System vollständig auf Proxmox VE 9.x.x aktualisiert.


Schritt 4: Überblick über die Hardware

Wenn du dich in der Weboberfläche anmeldest, siehst du:

  • Drei NVMe-Laufwerke, ideal für virtuelle Maschinen
  • Mehrere HDD-Bays (je nach Modell bis zu 8 Stück)
  • CPU-Auslastung und Speicherübersicht

Damit eignet sich das Ugreen NAS perfekt für:

  • Proxmox-Cluster
  • Virtuelle NAS-Instanzen (z. B. Unraid oder TrueNAS)
  • Backup-Server
  • Home Assistant-VMs oder Container



Schritt 6: Nächste Schritte – Unraid oder TrueNAS als VM

Jetzt, wo Proxmox läuft, kannst du entscheiden, welche NAS-Software du darauf als virtuelle Maschine nutzen willst.
Ich werde im nächsten Teil zeigen, wie man Unraid oder TrueNAS installiert, Festplatten durchreicht und ein performantes NAS-System in Proxmox betreibt.

Mich interessiert deine Meinung:
➡️ Soll ich zuerst Unraid oder TrueNAS zeigen? Schreib’s mir gerne in die Youtube Kommentare!


Fazit

Mit wenigen Schritten lässt sich das Ugreen DXP8800 Plus oder auch das kleinere DXP4800 in ein vollwertiges HomeLab-System verwandeln.
Statt das eingeschränkte Ugreen OS zu nutzen, erhältst du mit Proxmox:

  • volle Kontrolle über Hardware und Virtualisierung
  • flexible Backup- und Restore-Möglichkeiten
  • unbegrenzte Erweiterbarkeit

Ich bin beeindruckt, wie gut sich das System schlägt – trotz kompakter Bauweise. Und das Beste:
Du behältst dein ursprüngliches Ugreen OS als Image, falls du es jemals zurückspielen möchtest.

Im nächsten Teil zeige ich dir die Integration eines virtuellen NAS und den Aufbau eines echten HomeLab-Konzepts, das Backup-Server, Smart-Home-Automatisierung und zentrale Datenspeicherung vereint. Auch das Thema Redundanz wird in den weiteren Teilen noch behandelt werden.


Proxmox API Home Assistant Backup automatisieren – VMs überwachen & sichern

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

Einleitung

Proxmox API Home Assistant Backup – in diesem Praxis‑Guide lernst du, wie du mithilfe der Proxmox API den Zustand deiner virtuellen Maschinen abfragst, Dashboards in Home Assistant erstellst und Backups automatisierst. Statt auf HACS setzt du dabei auf REST‑Sensoren und API‑Calls, um deine VMs sicher zu überwachen und zu sichern.

Vorbereitung in Proxmox – Benutzer, Token und Rechte einrichten

Bevor du in Home Assistant loslegen kannst, musst du Proxmox entsprechend vorbereiten.

API‑Benutzer und Token anlegen

Erstelle im Proxmox DataCenter einen neuen User (z. B. homeassistant) ohne Passwort, denn wir arbeiten mit API‑Tokens. Wähle als Realm pve und lege anschließend unter API Token einen neuen Token für diesen User an. Achte darauf, Privilege Separation zu deaktivieren. Kopiere dir den Token sofort, da er später nicht mehr angezeigt wird.

Proxmox API Home Assistant Backup - User

Proxmox API Home Assistant Backup - API Token

Rollen konfigurieren

Für den Zugriff auf VM‑Informationen und Backups benötigen wir passende Rollen:

  • Lege eine neue Rolle (z. B. homeassistant-role) mit den Privilegien VM.Audit, Datastore.Audit und Datastore.AllocateSpace, VM.Backup an.
  • Weise diese Rolle dem User auf den benötigten Pfaden zu: dem Node (/nodes/pve-lerch) und den VMs (/vms/*).

Diese granularen Berechtigungen sorgen dafür, dass Home Assistant lediglich die benötigten Daten abrufen und einen Proxmox API Home Assistant Backup auslösen darf.

Proxmox API Home Assistant Backup - Rollen definieren

Home Assistant konfigurieren – REST‑Sensoren anlegen

Im nächsten Schritt richten wir Home Assistant ein. Falls du noch keinen File Editor installiert hast, installiere diesen im Add-on Store von Home Assistant.

Proxmox API Home Assistant Backup - Add-on File Editor

REST‑Sensor für VM‑Informationen

Über den YAML‑Eintrag rest: definieren wir einen Sensor, der regelmäßig einen GET‑Request an die Proxmox API sendet. Die URL lautet beispielsweise:

https://<proxmox-host>/api2/json/nodes/pve-larch/qemu

Als Header gibst du Authorization: PVEAPIToken=<user>@pve!<token-id>=<token> an. Im value_template kannst du die JSON‑Antwort weiterverarbeiten und die Daten in Attributen speichern.

  - resource: https://192.168.101.69:8006/api2/json/nodes/pvelerch/qemu
    method: GET
    headers:
      Authorization: "PVEAPIToken=homeassistant@pve!proxmox=be729a21-e76b-430b-84bf-40d096d035a6"
    verify_ssl: false
    scan_interval: 10
    sensor:
      - name: "PVELerch VM Raw"
        unique_id: pvelerch_vm_raw
        value_template: "OK"
        json_attributes:
          - data

Vergiss nicht, Home Assistant neu zu starten, damit der Sensor angelegt wird. Anschließend siehst du eine Liste aller VMs als JSON‑Attribut, inklusive ihrer Namen, IDs und Status.

REST‑Sensor für LXC‑Container

Für LXC‑Container wiederholst du den Sensor mit dem Endpunkt .../lxc. Denke daran, dass nicht alle API‑Attribute identisch sind – die Belegung des Festplattenspeichers (disk-usage) steht nur bei Containern zur Verfügung.

  - resource: https://192.168.101.69:8006/api2/json/nodes/pvelerch/lxc
    method: GET
    headers:
      Authorization: "PVEAPIToken=homeassistant@pve!proxmox=be729a21-e76b-430b-84bf-40d096d035a6"
    verify_ssl: false
    scan_interval: 10
    sensor:
      - name: "PVELerch LXC Raw"
        unique_id: pvelerch_lxc_raw
        value_template: "OK"
        json_attributes:
          - data

Hier nochmal beide Rest Sensoren für die Configuration.Yaml. Beachte, dass am Anfang einmal „rest:“ stehen muss.

rest:
  - resource: https://192.168.101.69:8006/api2/json/nodes/pvelerch/qemu
    method: GET
    headers:
      Authorization: "PVEAPIToken=homeassistant@pve!proxmox=be729a21-e76b-430b-84bf-40d096d035a6"
    verify_ssl: false
    scan_interval: 10
    sensor:
      - name: "PVELerch VM Raw"
        unique_id: pvelerch_vm_raw
        value_template: "OK"
        json_attributes:
          - data
          
  - resource: https://192.168.101.69:8006/api2/json/nodes/pvelerch/lxc
    method: GET
    headers:
      Authorization: "PVEAPIToken=homeassistant@pve!proxmox=be729a21-e76b-430b-84bf-40d096d035a6"
    verify_ssl: false
    scan_interval: 10
    sensor:
      - name: "PVELerch LXC Raw"
        unique_id: pvelerch_lxc_raw
        value_template: "OK"
        json_attributes:
          - data

Dashboard gestalten – Markdown‑Karte für VM‑Übersicht

Um die Daten ansprechend zu visualisieren, kannst du eine Markdown‑Karte in deinem Home‑Assistant‑Dashboard einfügen. Im Template liest du die Attribute der Sensoren aus und listest jede VM mit Name, Uptime, Status und, bei LXC‑Containern, prozentual belegtem Speicherplatz auf.

Proxmox API Home Assistant Backup - Mark Down Karte

{% set vms = state_attr('sensor.pvelerch_vm_raw', 'data') or [] %}
{% set lxcs = state_attr('sensor.pvelerch_lxc_raw', 'data') or [] %}

## 🖥️ Virtuelle Maschinen (QEMU)

{% for vm in vms | sort(attribute='vmid') %}
  {% set days = vm.uptime // 86400 %}
  {% set hours = (vm.uptime % 86400) // 3600 %}
  {% set minutes = (vm.uptime % 3600) // 60 %}
  {% if days > 0 %}
    {% set uptime_str = days ~ 'd ' ~ hours ~ 'h' %}
  {% else %}
    {% set uptime_str = hours ~ 'h ' ~ minutes ~ 'm' %}
  {% endif %}
- **{{ vm.vmid }}** | {{ vm.name }} | Uptime: {{ uptime_str }} | {{ "🟢" if vm.status == "running" else "🔴" }}
{% endfor %}

## 📦 LXC-Container

{% for lxc in lxcs | sort(attribute='vmid') %}
  {% set days = lxc.uptime // 86400 %}
  {% set hours = (lxc.uptime % 86400) // 3600 %}
  {% set minutes = (lxc.uptime % 3600) // 60 %}
  {% if days > 0 %}
    {% set uptime_str = days ~ 'd ' ~ hours ~ 'h' %}
  {% else %}
    {% set uptime_str = hours ~ 'h ' ~ minutes ~ 'm' %}
  {% endif %}
- **{{ lxc.vmid }}** | {{ lxc.name }} | Disk: {{ ((lxc.disk / lxc.maxdisk) * 100) | round(1) if lxc.maxdisk and lxc.maxdisk > 0 else 'n/a' }} % | Uptime: {{ uptime_str }} | {{ "🟢" if lxc.status == "running" else "🔴" }}
{% endfor %}

So siehst du live, wenn eine VM gestoppt wird oder startet. Über Automationen kannst du sogar Benachrichtigungen verschicken, wenn sich der Status ändert. Achte darauf, dass du die Entitäten auf deine Entitätsnamen anpasst.

sensor.pvelerch_vm_raw

sensor.pvelerch_lxc_raw

Monitoring & Test – Live‑Überwachung von VMs

Teste deine Konfiguration, indem du eine VM in Proxmox stoppst und wieder startest. Die Änderungen sollten in der Markdown‑Karte nach dem nächsten Scan‑Intervall sichtbar sein. Dieses Szenario zeigt, wie zuverlässig die REST‑API im Zusammenspiel mit Home Assistant funktioniert.

Backups per API auslösen

Eines der mächtigsten Features der Proxmox API ist die Möglichkeit, Backups zu starten.

Rollen erweitern

Erweitere deine Rolle um die Berechtigungen VM.Backup und Datastore.AllocateSpace, damit der User Backups auslösen darf ( haben wir schon im ersten Schritt getan ). Vergiss nicht, auch den Storage‑Pfad (/storage) mit dieser Rolle zu verknüpfen.

Proxmox API Home Assistant Backup - User Zugriffsrechte

REST‑Command für VZDump

In Home Assistant legst du unter rest_command: einen neuen Befehl an. Die URL endet diesmal auf /vzdump, die Methode ist POST, und als Payload übergibst du Parameter wie vmid, mode (z. B. snapshot), storage und compress.

rest_command:
  pvelerch_backup:
    url: "https://192.168.101.69:8006/api2/json/nodes/pvelerch/vzdump"
    method: POST
    headers:
      Authorization: "PVEAPIToken=homeassistant@pve!proxmox=be729a21-e76b-430b-84bf-40d096d035a6"
      Content-Type: "application/x-www-form-urlencoded"
    payload: "vmid=100,101,104,106,108,112,113,114,116,119,102,103,105&mode=snapshot&storage=PBS&compress=zstd"
    verify_ssl: false

Ein Aufruf dieses REST‑Commands startet sofort den Backup‑Job in Proxmox. Über die Home‑Assistant‑Entwicklerwerkzeuge kannst du den Befehl testen. In einer Automation oder auf einem Button platziert, kannst du einen Proxmox API Home Assistant Backup sogar zeit‑ oder ereignisgesteuert auslösen.

Fazit & Ausblick

Mit ein wenig Konfigurationsaufwand lässt sich die Proxmox API hervorragend in Home Assistant integrieren. Du kannst den Zustand deiner VMs und LXC‑Container überwachen, in Dashboards visualisieren und sogar Backups per Knopfdruck starten. Nutze diese Lösung als Grundlage für weitere Automatisierungen, zum Beispiel um Benachrichtigungen zu verschicken oder externe Dienste einzubinden.

Wenn du mehr über Energie‑Management erfahren willst, schau dir auch unseren Beitrag zur EVCC‑Einbindung in Home Assistant an. Für Einsteiger in Proxmox empfehlen wir den Artikel Proxmox Grundinstallation Schritt für Schritt.

Link‑Liste

Paperless NGX komplett einrichten – mit REST API Home Assistant Sensor

👉 Direkt auf YouTube schauen und abonnieren:
Smart Home & More auf YouTube

In diesem Video zeige ich euch, wie ihr unter Proxmox ( LXC oder VM), oder einem separaten PC Paperless NGX einrichtet. Da es recht viele Dinge dabei zu berücksichtigen gibt, habe ich euch dafür 3 Skripte erstellt.

  1. Installation
  2. Backup
  3. Restore

Mit diesen Skripten wird euch fast die gesamte Arbeit abgenommen.

Möchtest du Paperless ngx als Home Assistant Addon installieren, findest du hier eine Anleitung dazu:
https://youtu.be/wCiSkHQtYEE

Wichtiger Hinweis ! Bitte unbedingt beachten!

Ich habe die Freigabenamen umbenannt. Im Video bin ich darauf nochmal kurz eingegangen. Die Freigaben heißen nun:

consume

backup

restore

D.h. , wenn unter Windows die Freigaben gemountet werden, müssen diese Freigabenamen verwendet werden !

Skript install_paperless.sh

Hinweis: Die Skripte wurden auf Postgres 17, Redis 8 und Gotenberg „latest“ aktualisiert ( 12.11.2025)

#!/bin/bash
set -euo pipefail

# ---------------------------------------
# Helpers
# ---------------------------------------
log()  { echo -e "\033[1;32m[INFO]\033[0m $*"; }
warn() { echo -e "\033[1;33m[WARN]\033[0m $*"; }
err()  { echo -e "\033[1;31m[ERR ]\033[0m $*"; }

# ---------------------------------------
# Passwörter & Admin
# ---------------------------------------
prompt_for_password() {
  local password password_confirm
  if [[ "$1" == "PAPERLESS_PASSWORD" ]]; then
    echo -e "\n💡 Hinweis: Dieses Passwort wird für den Linux-Benutzer 'paperless' und den Samba-Server verwendet."
    echo -e "Es wird für den Zugriff auf freigegebene Samba-Ordner benötigt.\n"
  fi
  while true; do
    echo -e "\n🔒 Bitte geben Sie das Passwort für **$1** ein:"
    read -s password
    echo -e "\n🔒 Bitte bestätigen Sie das Passwort:"
    read -s password_confirm
    if [[ "$password" == "$password_confirm" ]]; then
      echo -e "\n✅ Passwort erfolgreich gesetzt für **$1**.\n"
      eval "$2='$password'"
      break
    else
      echo -e "\n❌ Die Passwörter stimmen nicht überein. Bitte erneut eingeben.\n"
    fi
  done
}

prompt_for_admin_user() {
  echo -e "\n👤 Bitte geben Sie den **Admin-Benutzernamen** ein (Standard: paperless):"
  read -r admin_user_input
  ADMIN_USER="${admin_user_input:-paperless}"
  echo -e "\n✅ Admin-Benutzer wurde auf **'$ADMIN_USER'** gesetzt.\n"
}

# Eingaben
prompt_for_password "PAPERLESS_PASSWORD" PAPERLESS_PASSWORD
prompt_for_admin_user
prompt_for_password "ADMIN_PASSWORD" ADMIN_PASSWORD

SAMBA_PASSWORD="$PAPERLESS_PASSWORD"
DB_PASSWORD="paperless"

# ---------------------------------------
# Pakete & Docker-Repo
# ---------------------------------------
update_and_install_dependencies() {
  log "Aktualisiere Paketliste und installiere benötigte Pakete…"
  sudo apt update
  sudo apt install -y apt-transport-https curl jq gnupg openssh-server \
                      samba samba-common-bin ca-certificates lsb-release
}

add_docker_repo() {
  log "Füge Docker GPG-Schlüssel und Repository hinzu…"
  sudo mkdir -p /etc/apt/keyrings
  if [[ ! -f /etc/apt/keyrings/docker.gpg ]]; then
    curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg
    sudo chmod a+r /etc/apt/keyrings/docker.gpg
  fi
  . /etc/os-release
  DOCKER_REPO="deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $VERSION_CODENAME stable"
  echo "$DOCKER_REPO" | sudo tee /etc/apt/sources.list.d/docker.list >/dev/null
  sudo apt update
}

# ---------------------------------------
# User/Gruppe
# ---------------------------------------
ensure_paperless_user_and_group() {
  if ! getent group paperless &>/dev/null; then
    log "Erstelle Gruppe 'paperless' mit GID 1002…"
    sudo groupadd -g 1002 paperless
  fi
  if ! id -u paperless &>/dev/null; then
    log "Erstelle Benutzer 'paperless' (UID 1002, GID 1002)…"
    sudo useradd -m -s /bin/bash -u 1002 -g paperless paperless
    echo "paperless:$PAPERLESS_PASSWORD" | sudo chpasswd
  fi
}

# ---------------------------------------
# Docker installieren
# ---------------------------------------
install_docker() {
  if ! command -v docker &>/dev/null; then
    log "Installiere Docker…"
    sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
    sudo systemctl enable --now docker
  fi
  if ! groups paperless | grep -q "\bdocker\b"; then
    log "Füge Benutzer 'paperless' zur Gruppe 'docker' hinzu…"
    sudo usermod -aG docker paperless
  fi
}

# ---------------------------------------
# AppArmor/runc-Bug NUR bei Bedarf mitigieren
# ---------------------------------------
mitigate_if_apparmor_bug() {
  . /etc/os-release
  if [[ "${ID:-}" != "ubuntu" ]]; then
    log "Nicht Ubuntu – überspringe AppArmor/runc-Erkennung."
    return 0
  fi
  if ! command -v docker >/dev/null 2>&1; then
    warn "Docker noch nicht installiert – Erkennung wird später erneut versucht."
    return 0
  fi

  sudo systemctl enable --now docker >/dev/null 2>&1 || true
  docker pull hello-world >/dev/null 2>&1 || true
  docker pull busybox:latest >/dev/null 2>&1 || true

  local TEST_OUT=0 OUTPUT
  if ! OUTPUT="$(docker run --rm --pull=never hello-world 2>&1)"; then
    TEST_OUT=1
  fi
  if [[ $TEST_OUT -ne 0 ]]; then
    if ! OUTPUT="$(docker run --rm --pull=never busybox:latest true 2>&1)"; then
      TEST_OUT=2
    else
      TEST_OUT=0
    fi
  fi

  if [[ $TEST_OUT -ne 0 ]] && echo "$OUTPUT" | grep -q 'net\.ipv4\.ip_unprivileged_port_start.*permission denied'; then
    warn "Erkannt: AppArmor/runc-Problem beim Container-Start."
    if ! dpkg -s containerd.io >/dev/null 2>&1; then
      warn "containerd.io nicht installiert (vermutlich Ubuntu-Containerd). Downgrade wird übersprungen."
      return 0
    fi
    local TARGET_VERSIONS=()
    case "$VERSION_CODENAME" in
      plucky) TARGET_VERSIONS=("1.7.28-1~ubuntu.25.04~plucky" "1.7.27-1") ;;
      noble)  TARGET_VERSIONS=("1.7.28-1~ubuntu.24.04~noble"  "1.7.27-1") ;;
      jammy)  TARGET_VERSIONS=("1.7.28-1~ubuntu.22.04~jammy"  "1.7.27-1") ;;
      *)      TARGET_VERSIONS=("1.7.27-1") ;;
    esac
    local CURR; CURR="$(dpkg-query -W -f='${Version}\n' containerd.io || true)"
    for v in "${TARGET_VERSIONS[@]}"; do
      if [[ "$CURR" == "$v" ]]; then
        log "containerd.io bereits auf gewünschter Version ($v). Setze Hold."
        sudo apt-mark hold containerd.io || true
        return 0
      fi
    done
    local AVAILABLE SELECTED
    AVAILABLE="$(apt-cache madison containerd.io | awk '{print $3}')"
    SELECTED=""
    for v in "${TARGET_VERSIONS[@]}"; do
      if echo "$AVAILABLE" | grep -qx "$v"; then SELECTED="$v"; break; fi
    done
    if [[ -z "$SELECTED" ]]; then
      warn "Keine passende containerd.io-Version im Repo gefunden – Mitigation übersprungen."
      return 0
    fi
    log "Mitigation: Downgrade/Pin containerd.io → $SELECTED"
    sudo apt-mark unhold containerd.io || true
    sudo apt-get install -y --allow-downgrades "containerd.io=${SELECTED}"
    sudo apt-mark hold containerd.io
    sudo systemctl restart containerd docker
  else
    log "Kein AppArmor/runc-Problem erkannt – keine Mitigation nötig."
  fi
}

# ---------------------------------------
# Samba
# ---------------------------------------
configure_samba() {
  sudo cp /etc/samba/smb.conf /etc/samba/smb.conf.bak || true
  sudo mkdir -p /data/paperless/{backup,restore,consume,data,media,export,postgresql/_data,redis/_data}
  sudo chown -R paperless:paperless /data/paperless/
  sudo chmod -R 770 /data/paperless/

  if ! grep -q "^\[consume\]" /etc/samba/smb.conf; then
    sudo tee -a /etc/samba/smb.conf >/dev/null <<'EOF'

[consume]
   comment = Paperless Daten
   path = /data/paperless/consume
   browsable = yes
   writable = yes
   guest ok = no
   create mask = 0770
   directory mask = 0770
   valid users = paperless
EOF
  fi

  if ! grep -q "^\[backup\]" /etc/samba/smb.conf; then
    sudo tee -a /etc/samba/smb.conf >/dev/null <<'EOF'

[backup]
   comment = Paperless Backup Daten
   path = /data/paperless/backup
   browsable = yes
   writable = yes
   guest ok = no
   create mask = 0770
   directory mask = 0770
   valid users = paperless
EOF
  fi

  if ! grep -q "^\[restore\]" /etc/samba/smb.conf; then
    sudo tee -a /etc/samba/smb.conf >/dev/null <<'EOF'

[restore]
   comment = Paperless Restore Daten
   path = /data/paperless/restore
   browsable = yes
   writable = yes
   guest ok = no
   create mask = 0770
   directory mask = 0770
   valid users = paperless
EOF
  fi

  (echo "$SAMBA_PASSWORD"; echo "$SAMBA_PASSWORD") | sudo smbpasswd -a paperless -s
  sudo systemctl restart smbd
  log "Samba Shares [consume], [backup], [restore] wurden konfiguriert."
}

# ---------------------------------------
# Compose schreiben
# ---------------------------------------
write_compose() {
  log "Erstelle docker-compose.yml…"
  sudo mkdir -p /home/paperless
  sudo chown paperless:paperless /home/paperless

  cat <<EOL | sudo tee /home/paperless/docker-compose.yml >/dev/null
services:
  broker:
    image: redis:7
    container_name: broker
    restart: unless-stopped
    volumes:
      - /data/paperless/redis/_data:/data

  db:
    image: postgres:17
    container_name: db
    restart: unless-stopped
    volumes:
      - /data/paperless/postgresql/_data:/var/lib/postgresql/data
    environment:
      POSTGRES_DB: paperless
      POSTGRES_USER: paperless
      POSTGRES_PASSWORD: $DB_PASSWORD

  gotenberg:
    image: gotenberg/gotenberg:latest
    container_name: paperless-gotenberg-1
    restart: unless-stopped
    command:
      - "gotenberg"
      - "--chromium-disable-javascript=false"
      - "--chromium-allow-list=.*"

  tika:
    image: apache/tika:latest
    container_name: tika
    restart: unless-stopped

  webserver:
    image: ghcr.io/paperless-ngx/paperless-ngx:latest
    container_name: webserver
    restart: unless-stopped
    depends_on:
      - db
      - broker
      - gotenberg
      - tika
    ports:
      - "8001:8000"
    volumes:
      - /data/paperless/consume:/usr/src/paperless/consume
      - /data/paperless/data:/usr/src/paperless/data
      - /data/paperless/media:/usr/src/paperless/media
      - /data/paperless/export:/usr/src/paperless/export
    environment:
      PAPERLESS_ADMIN_USER: $ADMIN_USER
      PAPERLESS_ADMIN_PASSWORD: $ADMIN_PASSWORD
      PAPERLESS_REDIS: redis://broker:6379
      PAPERLESS_DBHOST: db
      PAPERLESS_TIKA_ENABLED: 1
      PAPERLESS_TIKA_GOTENBERG_ENDPOINT: http://gotenberg:3000
      PAPERLESS_TIKA_ENDPOINT: http://tika:9998
      PAPERLESS_OCR_LANGUAGE: deu
      PAPERLESS_TIME_ZONE: Europe/Berlin
      PAPERLESS_CONSUMER_ENABLE_BARCODES: "true"
      PAPERLESS_CONSUMER_ENABLE_ASN_BARCODE: "true"
      PAPERLESS_CONSUMER_BARCODE_SCANNER: ZXING
      PAPERLESS_EMAIL_TASK_CRON: '*/10 * * * *'
      USERMAP_UID: "1002"
      USERMAP_GID: "1002"
      PAPERLESS_DBSSLMODE: disable
EOL
}

# ---------------------------------------
# DB starten, pg_hba absichern, dann Rest starten
# ---------------------------------------
bringup_with_pg_hba_fix() {
  pushd /home/paperless >/dev/null

  log "Starte zunächst NUR Redis & Postgres…"
  sudo -u paperless docker compose up -d broker db

  # Auf DB warten
  log "Warte, bis Postgres erreichbar ist…"
  for i in {1..60}; do
    if sudo docker exec db pg_isready -q >/dev/null 2>&1; then
      break
    fi
    sleep 2
  done

  # Subnetz der Compose-Network ermitteln
  local NET="paperless_default"
  local SUBNET
  SUBNET="$(docker network inspect "$NET" 2>/dev/null | jq -r '.[0].IPAM.Config[0].Subnet' || true)"
  if [[ -z "${SUBNET:-}" || "${SUBNET}" == "null" ]]; then
    # Fallback: häufig 172.18.0.0/16
    SUBNET="172.18.0.0/16"
    warn "Konnte Subnetz nicht auslesen – nutze Fallback ${SUBNET}"
  else
    log "Ermitteltes Docker-Subnetz: ${SUBNET}"
  fi

  # pg_hba.conf patchen, falls Eintrag fehlt
  log "Sichere pg_hba.conf gegen 'no pg_hba.conf entry … no encryption' ab…"
  sudo docker exec db bash -lc "grep -q '${SUBNET} ' /var/lib/postgresql/data/pg_hba.conf || echo 'host all all ${SUBNET} scram-sha-256' >> /var/lib/postgresql/data/pg_hba.conf"

  # Postgres reload (ohne DB-Login)
  sudo docker exec db bash -lc 'kill -HUP 1'

  # Kurzer Probe-Connect (ohne SSL)
  export PGPASSWORD="$DB_PASSWORD"
  if ! sudo docker exec -e PGPASSWORD="$DB_PASSWORD" db psql -U paperless -d paperless -c 'SELECT 1;' >/dev/null 2>&1; then
    warn "Probe-Query fehlgeschlagen – fahre trotzdem fort (Paperless migriert beim Start)."
  else
    log "Probe-Query erfolgreich."
  fi
  unset PGPASSWORD

  log "Starte nun gotenberg, tika und webserver…"
  sudo -u paperless docker compose up -d gotenberg tika webserver
  popd >/dev/null
}

# ---------------------------------------
# MAIN
# ---------------------------------------
update_and_install_dependencies
add_docker_repo
ensure_paperless_user_and_group
install_docker
mitigate_if_apparmor_bug
configure_samba
write_compose
bringup_with_pg_hba_fix

sleep 2
sudo chown -R paperless:paperless /data/paperless

LOCAL_IP=$(hostname -I | awk '{print $1}')
echo -e "\n🚀 **Paperless ist jetzt bereit!**"
echo -e "🔗 **Zugriff im Browser:** http://$LOCAL_IP:8001\n"
echo -e "🔁 **Bitte einmal neu booten, falls Docker neu installiert wurde.**"

Um die Scripte unter Linux vom Webserver zu laden, kannst du auch folgenden Befehl verwenden.

wget https://smarthomeundmore.de/wp-content/uploads/install_paperless.sh
wget https://smarthomeundmore.de/wp-content/uploads/backup.sh
wget https://smarthomeundmore.de/wp-content/uploads/restore.sh

Danach müssen sie mit:

chmod +x install_paperless.sh
chmod +x backup.sh
chmod +x restore.sh

ausführbar gemacht werden.

Script backup.sh

#!/bin/bash
# Skript: backup.sh
# Dieses Skript führt ein Backup über docker-compose aus und verschiebt anschließend die Backup-Datei(en).

echo "Starte Backup: Ein Backup wird jetzt durchgeführt..."

# Wechsel in das Verzeichnis, in dem sich die docker-compose Datei befindet
cd /home/paperless || { echo "Fehler: Verzeichnis /home/paperless nicht gefunden."; exit 1; }

# Führe den docker-compose Befehl aus
sudo docker compose exec webserver document_exporter ../export -z

# Prüfe, ob der Befehl erfolgreich war
if [ $? -eq 0 ]; then
  echo "Backup erfolgreich abgeschlossen."
  
  # Prüfen, ob das Quellverzeichnis existiert
  if [ -d "/data/paperless/export" ]; then
    # Sicherstellen, dass das Zielverzeichnis existiert (falls nicht, wird es angelegt)
    mkdir -p /data/paperless/backup

    # Prüfen, ob im Quellverzeichnis Dateien vorhanden sind
    if compgen -G "/data/paperless/export/*" > /dev/null; then
      echo "Verschiebe Backup-Datei(en) nach /data/paperless/backup..."
      mv /data/paperless/export/* /data/paperless/backup/
      
      if [ $? -eq 0 ]; then
        echo "Datei(en) erfolgreich verschoben."
      else
        echo "Fehler beim Verschieben der Datei(en)."
      fi
    else
      echo "Keine Datei(en) im Verzeichnis /data/paperless/export gefunden."
    fi
  else
    echo "Quellverzeichnis /data/paperless/export existiert nicht."
  fi
else
  echo "Fehler beim Backup."
fi

Script restore.sh

#!/bin/bash
# Skript: restore.sh
# Dieses Skript stellt ein Backup wieder her.

set -e

echo "Starte Wiederherstellung: Das Backup wird nun wiederhergestellt..."

DOCKER_COMPOSE_FILE="/home/paperless/docker-compose.yml"

# Funktion zum Auskommentieren der Umgebungsvariablen in docker-compose.yml
comment_out_env_vars() {
  echo "Kommentiere PAPERLESS_ADMIN_USER und PAPERLESS_ADMIN_PASSWORD in der docker-compose.yml aus..."

  # Erstelle ein Backup der Datei, falls noch nicht gesichert
  if [ ! -f "${DOCKER_COMPOSE_FILE}.bak" ]; then
    sudo cp "$DOCKER_COMPOSE_FILE" "${DOCKER_COMPOSE_FILE}.bak"
  fi

  # Setze sicherheitshalber Schreibrechte
  sudo chmod u+w "$DOCKER_COMPOSE_FILE"

  # Füge das `#` nur hinzu, falls es noch nicht vorhanden ist
  sudo sed -i 's/^\( *PAPERLESS_ADMIN_USER: \)/#\1/' "$DOCKER_COMPOSE_FILE"
  sudo sed -i 's/^\( *PAPERLESS_ADMIN_PASSWORD: \)/#\1/' "$DOCKER_COMPOSE_FILE"

  echo "Variablen erfolgreich auskommentiert."
}

# Variablen auskommentieren, bevor das Skript weiterläuft
comment_out_env_vars

# Verzeichnisse definieren
BACKUP_DIR="/data/paperless/restore"
EXPORT_DIR="/data/paperless/export"
DIRECTORIES_TO_DELETE=(
  "/data/paperless/consume"
  "/data/paperless/export"
  "/data/paperless/media"
  "/data/paperless/postgresql"
  "/data/paperless/redis"
)

# Prüfe, ob das Backup-Verzeichnis existiert
if [ ! -d "$BACKUP_DIR" ]; then
  echo "Fehler: Backup-Verzeichnis $BACKUP_DIR existiert nicht."
  exit 1
fi

# Schritt 1: Docker Compose herunterfahren
echo "Wechsle in /home/paperless und fahre Docker Compose herunter..."
cd /home/paperless || { echo "Fehler: Verzeichnis /home/paperless nicht gefunden."; exit 1; }
sudo docker compose down

# Schritt 2: Lösche die angegebenen Verzeichnisse
echo "Lösche die folgenden Verzeichnisse:"
for dir in "${DIRECTORIES_TO_DELETE[@]}"; do
  echo "  $dir"
  if [ -d "$dir" ]; then
    sudo rm -rf "$dir"
    echo "    -> $dir gelöscht."
  else
    echo "    -> $dir existiert nicht, überspringe..."
  fi
done

# Schritt 3: Erstelle das Export-Verzeichnis neu
echo "Erstelle das Verzeichnis $EXPORT_DIR..."
sudo mkdir -p "$EXPORT_DIR"
if [ $? -ne 0 ]; then
  echo "Fehler: Konnte $EXPORT_DIR nicht erstellen."
  exit 1
fi

# Schritt 4: Suche nach einer Archivdatei im Backup-Verzeichnis (z. B. *.zip)
ARCHIVE_FILE=$(find "$BACKUP_DIR" -maxdepth 1 -type f -name "*.zip" | head -n 1)
if [ -z "$ARCHIVE_FILE" ]; then
  echo "Fehler: Keine Archivdatei (*.zip) im Backup-Verzeichnis gefunden."
  exit 1
fi
echo "Gefundene Archivdatei: $ARCHIVE_FILE"

# Schritt 5: Kopiere die Archivdatei in das Export-Verzeichnis
echo "Kopiere die Archivdatei nach $EXPORT_DIR..."
sudo cp "$ARCHIVE_FILE" "$EXPORT_DIR"
if [ $? -ne 0 ]; then
  echo "Fehler beim Kopieren der Archivdatei."
  exit 1
fi

# Schritt 6: Wechsel in das Export-Verzeichnis und entpacke die Archivdatei
cd "$EXPORT_DIR" || { echo "Fehler: Konnte nicht in $EXPORT_DIR wechseln."; exit 1; }

# Überprüfe, ob 'unzip' installiert ist und installiere es gegebenenfalls
if ! command -v unzip >/dev/null 2>&1; then
  echo "Das Paket 'unzip' ist nicht installiert. Versuche, es zu installieren..."
  if command -v apt-get >/dev/null 2>&1; then
    sudo apt-get update && sudo apt-get install -y unzip
  elif command -v yum >/dev/null 2>&1; then
    sudo yum install -y unzip
  else
    echo "Kein unterstützter Paketmanager gefunden. Bitte installiere 'unzip' manuell."
    exit 1
  fi
fi

# Entpacken der Archivdatei
ARCHIVE_BASENAME=$(basename "$ARCHIVE_FILE")
echo "Entpacke $ARCHIVE_BASENAME..."
unzip "$ARCHIVE_BASENAME"
if [ $? -ne 0 ]; then
  echo "Fehler beim Entpacken von $ARCHIVE_BASENAME."
  exit 1
fi
echo "Archiv erfolgreich entpackt."

# Optional: Entferne die kopierte Archivdatei, falls sie nicht mehr benötigt wird
# sudo rm "$ARCHIVE_BASENAME"

# Schritt 7: Starte Docker Compose Container neu
echo "Wechsle zurück nach /home/paperless und starte die Container..."
cd /home/paperless || { echo "Fehler: Verzeichnis /home/paperless nicht gefunden."; exit 1; }
sudo -u paperless docker compose up -d
if [ $? -ne 0 ]; then
  echo "Fehler: Docker Compose konnte nicht gestartet werden."
  exit 1
fi

sudo chown -R paperless:paperless /data/paperless/consume /data/paperless/media
sudo chmod -R 775 /data/paperless/consume /data/paperless/media
sudo chown paperless:paperless /home/paperless/docker-compose.yml


sleep 60

cd /home/paperless
# Schritt 8: Führe den Importbefehl aus
echo "Führe Importbefehl aus..."
sudo docker compose exec webserver document_importer ../export
sudo chown -R paperless:paperless /data/paperless 
if [ $? -eq 0 ]; then
  echo "Import erfolgreich abgeschlossen."
else
  echo "Fehler beim Import."
  exit 1
fi
echo " Bitte einmal das System neu booten ! "
echo "---------------------------ENDE--------------------------------"

Upgrade Postgres 16 zu Postgres 17 ( bei vorhandener Installation )

ACHTUNG: Bitte zuvor unbedingt ein Backup der virtuellen Maschine oder des LXC Containers machen !

Zunächst begebt euch im Container oder der VM in das Verzeichnis /home/paperless. Dort findet ihr eine Datei docker-compose.yml.

Als ersten Schritt müssen wir nun die Docker Container beenden.

docker compose down

mit nano docker-compose.yml kontrollieren wir die Eintragungen der Compose Datei. Dabei ist folgender Abschnitt relevant:

Hier sieht man , dass aktuell das Image postgres:16 verwendet wird. Das brauchen wir für den Migrationsprozess in genau dieser Form. Merkt euch zudem auch den POSTGRES_USER , den brauchen wir für den nächsten Schritt.

Mit Strg+X beenden wir den Dateieditor und begeben uns in die Konsole.
Dort geben wir nun folgenden Befehl zum starten der Datenbank ein:

docker compose up -d db

Im nächsten Schritt sichern wir uns nun die aktuelle Datenbank:

docker exec -t db pg_dumpall -U DATENBANKUSER > all.sql

Bei DATENBANKUSER müsst ihr den User aus eurer docker-compose.yml eintragen. Im Beispiel ist es der User paperless.

Nachdem die Sicherung erfolgt ist, beenden wir erneut die Container:

docker compose down

Jetzt können wir erneut mit:

nano docker-compose.yml

unser Compose File editieren.

Jetzt müssen folgende Eintragungen angepasst werden:

Wir ändern also image: postgres:16 in image: postgres:17 und die Zeile volumes: …../_data in …./datav17

Danach starten wir erneut den Datenbank Container mit

docker compose up -d db

Jetzt müssen wir unsere Sicherung der Datenbank und die neu initialisierte Datenbank zurückkopieren.

Das können wir mit

cat all.sql | docker exec -i db psql -U DATENBANKUSER

machen. Dabei ist DATENBANKUSER wieder unser POSTGRES Datenbank Benutzer. In unserem Beispiel paperless.

Wenn der Import Vorgang nun ohne Fehler durchgelaufen ist, können wir mit

docker compose down
docker compose up -d

alle Container wieder starten.

Redis und Gotenberg Update

Um Redis und Gotenberg auf eine neue Version zu updaten sind auch wieder Anpassungen in der docker-compose.yml nötig.

Dazu müssen zunächst die Container gestoppt werden.

docker compose down

Danach editieren wir erneut die docker-compose.yml mit

nano docker-compose.yml

und ändern folgende Zeilen:

Hier tragt die gewünschte Redis Version ein. In meinem Beispiel habe ich von Version 7 auf 8 gewechselt.

Für Gotenberg gehen wir ähnlich vor. Hier habe ich mich entschieden, die „latest“ Variante zu verwenden.

Nach den Änderungen , beendet den Editor mit Strg+X und speichert mit „Yes“ die Datei.

Jetzt müssen wir noch die Container aktualisieren.

docker compose pull

und erneut starten.

docker compose up -d

Jetzt sollten alle Container in der aktuellen eingetragenen Version zur Verfügung stehen.

Update 23.09.2025 – Paperless-ngx: 1:1-Backup & Restore (Docker/Proxmox/LXC)

Überblick

Diese Ergänzung zeigt eine einfache, robuste 1:1-Sicherung und Wiederherstellung einer Paperless-ngx-Instanz – ohne export/import und ohne Manifest-Probleme. Geeignet für Umzüge auf eine neue LXC/VM und für regelmäßige Vollbackups.

Vorteile:

  • Vollständiges Abbild von /data/paperless (Dokumente, Postgres, Redis, Konfiguration)
  • Versionsunabhängig (kein Versions-Matching beim Import nötig)
  • Schnelle Wiederherstellung des exakten Zustands

Wichtig: Nach dem Restore sind die alten Benutzer & Passwörter der Quellinstanz wieder aktiv – auch wenn beim Neuaufsetzen andere Zugangsdaten vergeben wurden.


Voraussetzungen

  • Paperless-ngx läuft via Docker Compose.
  • Datenpfad: /data/paperless, Compose-Projekt: /home/paperless.
  • Auf der Zielinstanz wurde Paperless vorab mit dem bekannten Install-Skript bereitgestellt (Container/Volumes/ENV).

A) Backup auf der Quellinstanz erstellen

1) In das Arbeitsverzeichnis wechseln

cd /root

2) Backup-Skript laden und ausführbar machen

wget https://smarthomeundmore.de/wp-content/uploads/backup_new.sh
chmod +x backup_new.sh

3) Backup starten

./backup_new.sh

Ablauf:

  • Paperless-Container werden gestoppt.
  • Ein komprimiertes Archiv wird erstellt und in /data/paperless/backup abgelegt.
  • Container werden automatisch neu gestartet.

4) Backup übertragen

Das erzeugte Archiv (z. B. paperless-backup-YYYY-MM-DD_HH-MM.tar.gz) auf die Zielinstanz kopieren (z. B. mit scp oder rsync).

B) Restore auf der Zielinstanz durchführen

1) Zielumgebung bereitstellen

Paperless auf der Zielinstanz wie gewohnt mit dem Install-Skript einrichten (Compose/ENV).
Hinweis: Nach dem Restore gelten wieder die alten Credentials aus der gesicherten Instanz.

2) Backup-Datei platzieren

Backup nach /home/paperless kopieren.
Nicht nach /data/paperless/restore legen – das Restore-Skript löscht /data/paperless vollständig.

3) Restore-Skript laden und ausführbar machen

cd /root
wget https://smarthomeundmore.de/wp-content/uploads/restore_new.sh
chmod +x restore_new.sh

4) Restore ausführen (mit absolutem Pfad)

./restore_new.sh /home/paperless/paperless-backup-YYYY-MM-DD_HH-MM.tar.gz

Ablauf:

  • Container werden gestoppt.
  • /data/paperless wird gelöscht.
  • Das Backup wird 1:1 mit korrekten Besitzrechten zurückgespielt (tar --same-owner --numeric-owner).
  • Container starten automatisch wieder.

ASN QR Codes generieren

Avery Zweckform QR-Code Generator von Tobias L. Meier: https://tobiasmaier.info/asn-qr-code-label-generator/

Ergänzung & Dank an Murat

An dieser Stelle auch ein herzliches Dankeschön an Murat, der mich nach einem meiner YouTube-Videos auf eine interessante Ergänzung aufmerksam gemacht hat.

Er hatte bei der Nutzung des ASN-QR-Code-Label-Generators von Tobias Maier Schwierigkeiten, die QR-Codes korrekt und passgenau zu drucken. Deshalb hat er kurzerhand ein eigenes Projekt gestartet, mit dem sich mehr Kontrolle über den Druck realisieren lässt:

👉 ASN-QR-Code-Label-Generator von Murat auf GitHub

Vielleicht ist das auch für dich hilfreich, wenn du ähnliche Probleme beim Druck hast. Murat freut sich sicherlich über Feedback und Tests aus der Community.

Home Assistant Rest API Sensoren

Im Video habe ich auch gezeigt, wie man einen Sensor in Home Assistant erstellt, um sich die Anzahl der Dokumente im Posteingang anzeigen zu lassen. Die Informationen dazu habe ich von Flemming´s Blog, wo einige Beispielsensoren zu finden sind. Tolle Arbeit und sehr gut erklärt.

Monitoring Paperless-ngx in Home-Assistant – Flemming’s Blog

Empfohlene Hardware für die Digitalisierung und die QR Codes

Ein weiterer Scanner, der häufiger im Kontext mit paperless-ngx genannt wird, ist der Brother ADS-1700W. Da ich diesen allerdings nicht selber getestet habe, kann ich keine direkte Empfehlung dazu aussprechen.

Solltest du in den Scripten noch Fehler finden, kannst du mir gerne deine Korrekturen als Mail zukommen lassen. Meine Kontakdaten findest du im Impressum.

Reicht mein Smart Home & Home Assistant? 🏠 NAS-Systeme im Vergleich – #2 TrueNAS

In der Welt der NAS-Systeme ist TrueNAS eine meiner bevorzugten Optionen, die sowohl für Einsteiger als auch für erfahrene Nutzer viele Möglichkeiten bietet. In diesem Artikel führe ich dich durch die Schritte zur Installation und Konfiguration von TrueNAS, damit du dein eigenes NAS-System optimal nutzen kannst.

Ich möchte euch heute einen allgemeinen Amazon-Link teilen, über den ihr eine Vielzahl von Produkten entdecken könnt. Egal, ob ihr nach Smart Home-Geräten, Gadgets oder anderen nützlichen Artikeln sucht, Amazon hat für jeden etwas zu bieten.

Wenn ihr über diesen Link einkauft, unterstützt ihr meinen Kanal, ohne dass es für euch zusätzliche Kosten verursacht. Das hilft mir, weiterhin spannende Inhalte für euch zu erstellen!

Hier ist der Link zu Amazon: https://amzn.to/3KsGngK

Vielen Dank für eure Unterstützung!

Einleitung

Ich möchte dir zeigen, wie ich TrueNAS installiere und welche Funktionen es bietet, um mein Smart Home zu unterstützen. Dabei konzentriere ich mich auf die Installation und Grundkonfiguration von TrueNAS.

Installation von TrueNAS

Ich starte mit der Installation von TrueNAS, einem wichtigen Schritt, um die leistungsstarken Funktionen des Systems nutzen zu können. Es gibt verschiedene Versionen von TrueNAS, darunter TrueNAS Core und TrueNAS Scale, die ich kurz erläutere, um dir bei der Auswahl der richtigen Version zu helfen.

Der Installationsprozess

Ich zeige dir, wie ich TrueNAS Scale von einem USB-Stick installiere, und erkläre, wie ich den USB-Stick mit dem TrueNAS-Image bespiele. Dieser Prozess ist einfach und effizient, um das System schnell in Betrieb zu nehmen. Anschließend führe ich die Installation auf der Boot-Festplatte durch.

Wichtige Informationen

Ich spreche über die Hardware-Anforderungen und -Optionen, die du für dein TrueNAS-System in Betracht ziehen solltest. Zudem zeige ich dir, wie ich einen ZFS-Pool erstelle, um die Datenspeicherung zu optimieren, sowie die erste Anmeldung bei TrueNAS und die Benutzeroberfläche.

Erweiterungsmöglichkeiten

Ich stelle einige nützliche Apps vor, die ich in TrueNAS verwende, um die Funktionalität meines Systems zu erweitern. Ein weiteres Highlight ist die Installation von Home Assistant als virtuelle Maschine (VM), um mein Smart Home zu steuern und zu automatisieren. Ich erkläre dabei auch, wie ich Home Assistant Supervised auf TrueNAS installiere, um alle Vorteile der Automatisierung zu nutzen.

Zusätzlich gehe ich auf die Nachteile von TrueNAS ein, damit du eine fundierte Entscheidung treffen kannst, ob es die richtige Lösung für deine Bedürfnisse ist. Außerdem erkläre ich, wie ich USB-Passthrough einrichte, um meine Smart Home-Geräte direkt über TrueNAS zu integrieren, und zeige dir, wie ich SMB-Freigaben einrichte, damit du problemlos auf deine Daten zugreifen kannst.

Fazit

In diesem Artikel habe ich die wichtigsten Punkte zur Installation und Konfiguration von TrueNAS zusammengefasst. Alle wichtigen Details werden im Video ausführlich gezeigt, sodass du den gesamten Prozess nachvollziehen kannst. Ich betone die Vorteile, die TrueNAS für mein Smart Home bieten kann, sowie die Nachteile, die du berücksichtigen solltest.

Wenn du mehr über den gesamten Prozess erfahren möchtest, schaue dir das Video an: TrueNAS Installation und Konfiguration.


Mit dieser Anleitung bist du bestens gerüstet, um dein eigenes TrueNAS-System aufzubauen und die Vorteile zu nutzen, die es dir für dein Smart Home bietet. Viel Erfolg bei deiner Installation!

Shell Kommandos zur Installation von Home Assistant

sudo wget https://github.com/home-assistant/operating-system/releases/download/13.1/haos_ova-13.1.qcow2.xz  # Download des aktuellen HA Images ( bei euch ggf. eine andere Version ! )
sudo unxz haos_ova-13.1.qcow2.xz
sudo qemu-img convert -O raw haos_ova-13.1.qcow2 /dev/zvol/ZFS+Pool/homeassistant

Wichtiger Hinweise!

Im Video habe ich die Einblendung an dieser Stelle falsch gemacht. Das was in der Konsole angezeigt wird ist korrekt . Die Einblendung zeigt in meinem Setup aus dem Video den falschen Pfad an.

Offsite Backups der letzte Ausweg für dein Home Assistant oder Proxmox ( nur mit GUI ) ?

In diesem Video zeige ich euch, wie ihr die Hetzner Storage Box für Offsite Backups von Home Assistant einrichten könnt. Zusätzlich erkläre ich, wie ihr die Storage Box in Proxmox VE integrieren könnt, ohne dabei die Konsole nutzen zu müssen. So könnt ihr eure Backups und Speicherkapazitäten ganz einfach verwalten, auch wenn ihr keine tiefergehenden Linux-Kenntnisse habt.

Viel Spaß beim Anschauen! 😊

Ich möchte euch heute einen allgemeinen Amazon-Link teilen, über den ihr eine Vielzahl von Produkten entdecken könnt. Egal, ob ihr nach Smart Home-Geräten, Gadgets oder anderen nützlichen Artikeln sucht, Amazon hat für jeden etwas zu bieten.

Wenn ihr über diesen Link einkauft, unterstützt ihr meinen Kanal, ohne dass es für euch zusätzliche Kosten verursacht. Das hilft mir, weiterhin spannende Inhalte für euch zu erstellen!

Hier ist der Link zu Amazon: https://amzn.to/3KsGngK

Vielen Dank für eure Unterstützung!

Für die Home Assistant Auto Backup Erweiterung benötigt ihr HACS. Hier findest du eine Anleitung, wie du HACS installierst:

Weitere Links aus dem Video:

HACS Auto Backup Integration

Hetzner Storage Box

Proxmox Backup Server Installation auf Synology NAS: Schritt-für-Schritt-Anleitung für effiziente Datensicherung

Erfahre, wie du den Proxmox Backup Server auf deinem Synology NAS als virtuelle Maschine installierst. Diese Anleitung beinhaltet die Grundkonfiguration, zeigt die nahtlose Integration unter Proxmox VE und erklärt die effektive Nutzung der Prune Settings. Entdecke detaillierte Schritte für ein reibungsloses Backup und Restore.

Ergänzende Informationen:
Kompatibilität Synology NAS mit Virtual Machine Manager:

https://www.synology.com/de-de/dsm/packages/Virtualization

Hinweis: Der Virtual Machine Manager lässt sich nur nutzen, wenn der Speicher als Btrfs-Volume angelegt ist. Ext3 oder Ext4 wird nicht unterstützt.
https://kb.synology.com/de-de/DSM/help/Virtualization/storage?version=6

Synology Virtual Machine Manger spk Datei:
https://archive.synology.com/download/Package/Virtualization

Hier findest du eine Anleitung, wie du den Virtual Machine Manager installierst:

Prune Simulator: https://pbs.proxmox.com/docs/prune-simulator/
Proxmox Backup Server Download : https://www.proxmox.com/de/downloads

Home Assistant als virtuelle Maschine unter Proxmox 8.1 ( Komplett & Einfach) installieren

Home Assistant als virtuelle Maschine unter Proxmox 8.1 installieren ist schwierig ? Ist es nicht… Wie das mit einem Mini-PC in meinem Fall der Orbsmart AW-13 mit wenigen einfachen Schritten durchgeführt werden kann, zeigt dieses Video. Dabei werden die Installationsschritte für Proxmox 8.1, Installation einer Home Assistant VM, der Umgang mit mit einem EMMC Speicher als Hauptspeicher und auch das Thema Backup betrachtet.

Orbsmart AW-13 aus dem Video*:


Orbsmart AW-13 4K Mini-PC Windows 11 Pro Desktop PC | Computer | lüfterlos | lautlos (Intel N5100 CPU, 16GB RAM, 256GB int. Speicher, 2.5″ Festplattenschacht, HDMI 2.0), schwarz

  • Leistungsstarker & lüfterloser 4K Mini-PC auf Windows 11 Pro Basis inklusive 2.5″ Festplattenschacht – flexibel einsetzbar als stromsparender Büro-PC, Medienzentrale, Streaming-Client etc.
  • Vollwertiges Windows 11 Professional vorinstalliert / Auflösung bis zu 4K ULTRA HD (2160p@60Hz) möglich
  • Aktuelle Intel Chip-Generation „Jasper Lake“: Quad-Core CPU N5100 (Burst freq: 2.80 GHz) / 16GB DDR4-RAM / 256GB int. Speicher / Autostart-Funktion (direktes Hochfahren nach Stromzufuhr), WOL + PXE + RTC-Support
  • Dank HTML5 & Silverlight Support volle Kompatibilität zu allen IPTV Streaming Inhalte (Youtube, Netflix, Prime Video, Disney+, Skygo, Magenta TV & Co.) – Webrowsing wie an jedem Windows PC
  • Dualband WLAN-AC + Bluetooth 4.2 / HDMI 2.0, Displayport 1.2, VGA / Gigabit-LAN / 2x USB 3.1 (Gen1) + 1x USB 3.1 Typ-C (Gen1), 2x USB 2.0, 1x 3.5mm Audio / microSD-Slot (max. 512GB) / Kensington Lock / TV-Halterung (VESA 75×75 / 100×100) inklusive

Für mein Hauptsetup verwende ich diese Konfiguration *:


MINIS FORUM Venus UM790 Pro Mini-PC AMD Ryzen 9 7940HS, genau 5,2 GHz, 64 GB DDR5 1 bis SSD mit AMD Radeon 780M, 4X USB3.2, 2X USB4, 2X HDMI 2.1, 2X PCIe4.0, Wi-FI 6E /BT5.3, RJ45 2,5 G

  • 【Leistungsstarker Prozessor】 AMD Ryzen 9 7940HS, 8 Kerne/16 Threads (16 MB Cache, bis zu 5,2 GHz Taktfrequenz), gefertigt im 4-Nanometer-Prozess von TSMC, AMD Radeon 780M (Grafikfrequenz 2,8 GHz), ausgestattet mit AMD Ryzen AI-Technologie, die eine effiziente und energieeffiziente Unterstützung für verschiedene KI-Anwendungen bietet, ohne die Leistung von CPU und GPU zu beeinträchtigen.

Hier könnt ihr die Proxmox ISO herunterladen: Downloads (proxmox.com)

Hier findet ihr die Balena Etcher Software : balenaEtcher – Flash OS images to SD cards & USB drives

Zum Thema EMMC Speicher:

Es ist nicht zu empfehlen Proxmox auf einem EMMC Speicher zu installieren. Viele Schreibzugriffe können die Lebensdauer eines EMMC Speichers stark beeinträchtigen. Deshalb unterbindet die Proxmox Installation die Installation auf einem EMMC Speicher. Es gibt eine Möglichkeit das dennoch zu tun. Wie das funktioniert, wird im Video erklärt. Hier die dazugehörigen Befehle:

nano /usr/share/perl5/Proxmox/Sys/Block.pm

Im Editor muss dann die Funktion sub get_partition_dev angepasst werden. Geht dazu zu dieser Stelle der Datei Block.pm

 } elsif ($dev =~ m|^/dev/nvme\d+n\d+$|) {
     return "${dev}p$partnum";
 } else {
     die "unable to get device for partition $partnum on device $dev\n";
 }

Ändert diesen Teil, wie in der nächsten Abbildung gezeigt (Zeile 3+4 ergänzen! ).

 } elsif ($dev =~ m|^/dev/nvme\d+n\d+$|) {
     return "${dev}p$partnum";
 } elsif ($dev =~ m|^/dev/mmcblk\d+$|) {
     return "${dev}p$partnum";
 } else {
     die "unable to get device for partition $partnum on device $dev\n";
 }

Um Home Assistant als VM über ein Script einfach und schnell zu installieren, öffnet in eurem PVE-Node die Shell und gebt dort folgenden Befehl ein. Es handelt sich bei den Skripten um die Proxmox-VE Helper Scripts.

bash -c "$(curl -fsSL https://raw.githubusercontent.com/community-scripts/ProxmoxVE/main/vm/haos-vm.sh)"

Nachdem ihr diesen Befehl eingegeben habt, wird das Script heruntergeladen und ausgeführt. Es wird automatisch eine VM mit Home Assistant und allen nötigen Grundeinstellungen angelegt.

Proxmox Monitoring & Control mit Home Assistant

Hypervisor Monitoring ? Mit Home Assistant lässt sich komfortabel der Status von Proxmox Nodes , VMs und LXC Containern überwachen und sogar steuern. Eine VM fällt aus, kann mit der Hausautomatisierungslösung Home Assistant schnell eine Nachricht geschickt werden oder ein Prozess angestoßen werden um das betroffene System wieder automatisch zu starten. So lassen sich einfach die Zustände der angebundenen Speichergeräte, CPU und RAM Auslastung erfassen. Du fragst dich wie das funktioniert ? Dann schau dieses Video 🙂

Orbsmart AW-13 aus dem Video*:


Orbsmart AW-13 4K Mini-PC Windows 11 Pro Desktop PC | Computer | lüfterlos | lautlos (Intel N5100 CPU, 16GB RAM, 256GB int. Speicher, 2.5″ Festplattenschacht, HDMI 2.0), schwarz

  • Leistungsstarker & lüfterloser 4K Mini-PC auf Windows 11 Pro Basis inklusive 2.5″ Festplattenschacht – flexibel einsetzbar als stromsparender Büro-PC, Medienzentrale, Streaming-Client etc.
  • Vollwertiges Windows 11 Professional vorinstalliert / Auflösung bis zu 4K ULTRA HD (2160p@60Hz) möglich
  • Aktuelle Intel Chip-Generation „Jasper Lake“: Quad-Core CPU N5100 (Burst freq: 2.80 GHz) / 16GB DDR4-RAM / 256GB int. Speicher / Autostart-Funktion (direktes Hochfahren nach Stromzufuhr), WOL + PXE + RTC-Support
  • Dank HTML5 & Silverlight Support volle Kompatibilität zu allen IPTV Streaming Inhalte (Youtube, Netflix, Prime Video, Disney+, Skygo, Magenta TV & Co.) – Webrowsing wie an jedem Windows PC
  • Dualband WLAN-AC + Bluetooth 4.2 / HDMI 2.0, Displayport 1.2, VGA / Gigabit-LAN / 2x USB 3.1 (Gen1) + 1x USB 3.1 Typ-C (Gen1), 2x USB 2.0, 1x 3.5mm Audio / microSD-Slot (max. 512GB) / Kensington Lock / TV-Halterung (VESA 75×75 / 100×100) inklusive

Für mein Hauptsetup verwende ich diese Konfiguration *:


MINIS FORUM Venus UM790 Pro Mini-PC AMD Ryzen 9 7940HS, genau 5,2 GHz, 64 GB DDR5 1 bis SSD mit AMD Radeon 780M, 4X USB3.2, 2X USB4, 2X HDMI 2.1, 2X PCIe4.0, Wi-FI 6E /BT5.3, RJ45 2,5 G

  • 【Leistungsstarker Prozessor】 AMD Ryzen 9 7940HS, 8 Kerne/16 Threads (16 MB Cache, bis zu 5,2 GHz Taktfrequenz), gefertigt im 4-Nanometer-Prozess von TSMC, AMD Radeon 780M (Grafikfrequenz 2,8 GHz), ausgestattet mit AMD Ryzen AI-Technologie, die eine effiziente und energieeffiziente Unterstützung für verschiedene KI-Anwendungen bietet, ohne die Leistung von CPU und GPU zu beeinträchtigen.

Befehl zu Installation von HACS im Terminal:

wget -O - https://get.hacs.xyz | bash -

Proxmox VE Custom Integration für Home Assistant: https://github.com/dougiteixeira/proxmoxve

Helfer Proxmox Smarthome VMs (Templatesensor)

{{ expand('binary_sensor.proxmox_smarthome_vms') | selectattr('state', 'eq' , 'off') | list | count }}

Automatisierung Proxmox Smarthome VM ausgefallen:

alias: Proxmox Smarthome VM ausgefallen
description: ""
trigger:
  - platform: numeric_state
    entity_id:
      - sensor.zahler_vms_proxmox
    above: 0
condition: []
action:
  - delay:
      hours: 0
      minutes: 0
      seconds: 30
      milliseconds: 0
  - service: notify.persistent_notification
    data:
      title: Proxmox Smarthome VM ausgefallen
      message: >-
        {{ expand('binary_sensor.proxmox_smarthome_vms') | selectattr('state',
        'eq', 'off')  | map(attribute='name')  | list  | join (', 

        ') }}
  - service: button.press
    data: {}
    target:
      entity_id: button.qemu_win11vm_106_starten
mode: single