Hallo ich habe von der von @Stefan empfohlenen Installation auf den Container Manager umgestellt und Paperless als „Projekt“ installiert.
Soweit ich es herausgefunden habe ist das recht ähnlich zu einem Stack in Portainer, mit vielen ähnlichen Vorteilen aber halt mit dem größten Vorteil, dass erstens die GUI von Synology genutzt werden kann, man keine zusätzlichen Sicherheitslücken durch SSH dabei aufmachen muss und was mir am besten gefällt man einen Überblick über den Ressourcenverbrauch auf dem NAS hat!
Wichtig ist zu wissen, wenn man sich an die bisher empfohlen Installation hält,dass wenn man die docker-compose.yml im paperless-ngx „Hauptverzeichnis“ abspeichert - also nicht in config, dass diese von Projekt automatisch gefunden wird.
Dafür ist natürlich notwendig die Verzeichniszuordnungen, sollten diese bei euch nicht sowieso schon auf euren Docker Container z.B. /volume1/docker/paperless-ngx/data sondern noch auf …/data usw. zeigen, dass ihr entweder unixtypisch ein Verzeichnis „runterstuft“ oder was mir persönlich besser gefällt weil es lesbarer wird, direkt auf das Verzeichnis zu verweisen!
Die docker-compose Datei wird im Rahmen von der Installation „importiert“ und an einem für die Synology intern erreichbaren Bereich abgelegt.
Das ist dafür wichtig zu wissen, dass Änderungen die ihr über die GUI dort bei gestopptem Projekt direkt durchführt, nicht in eure im Verzeichnis liegende .yaml zurück kopiert wird.
Falls ihr mal ein Backup zurückspielt und das entweder per Shell oder über die GUI neu machen möchtet, kann das dann zu Problemen führen, wenn nicht die Daten synchron gehalten werden.
Soweit mir bisher bekannt ist, geht das aktuell nur per Hand!
Da es aber auch den Texteditor gibt ist das ja kein großer Aufwand erfolgreichen Code manuell in die „lokale“ yaml als Backup zu schreiben.
Um alle Vorteile der GUI nutzen zu können habe ich die .env Daten direkt in die YAML-Konfiguration vom Projekt übernommen!
Blockzitat Wichtig dafür statt „=“ einen „:“ verwenden und alles was {} enthält unter einfache Hochkommas setzen ’
Ich bin mit dieser Lösung sehr zufrieden da ich mir SSH Code und tippereien dort nun komplett erspare und zusätzlich einen Überblick habe wie es mit den Ressourcen ausschaut!
Geht mir gleich, mit SSH hab ich nix am Hut, wenn die yaml Datei passt und man den Paperless Ordner immer schön sichert kann man Paperless in Minuten wiederherstellen.
@ROIOS Wenn ich nun im Container Manager bereits ein bestehendes Projekt habe welches noch auf /config zeigt, kann ich das dann bedenkenlos löschen und neu erstellen, oder ist dann auch die Paperless DB weg?
Du kannst das Projekt im Container Manager löschen, es werden keine Datenbanken, Einstellungen oder Dokumente gelöscht.
Lediglich das Docker-Projekt und alle zugehörigen Container werden gelöscht.
Mit der aktuellen Yaml kannst du jederzeit ein neues Paperless Projekt erstellen, wichtig ist halt dass die Ordner und Dateien im Volume noch alle vorhanden sind und dass man da nicht manuell drin rumgemurkst hat!
Willst du eine ganz neue Instanz erstellen dann die erstellten Ordner im Volume alle leeren und das Projekt neu erstellen.
Ja genau, Projekt stoppen, die Yaml ändern und neue starten.
Habe ich aber bisher nur über Portainer gemacht, funktioniert aber ähnlich.
Ich mach 2 mal pro Tag einen Snapshot vom kompletten Docker Ordner und einmal Nachts eine Sicherung vom Docker Ordner per Hyperbackup auf ein altes NAS.
Exporter usw hab ich noch nie benutzt.
Ich mache aktuell jede Nacht einen Export (document_exporter).
Dann werden der Export- und der Docker-Ordner auf eine externe Platte gesichert (Hyper Backup) - zusätzlich geht das noch 1 x täglich in die Synology-C²-Cloud.
Wen ich das richtig verstehe, könnte ich mir dann den Export sparen?
Es reicht tatsächlich, nur den Docker-Ordner zu sichern?
Ach ja, 3 mal die Woche geht der Docker Ordner noch in die C2 Cloud.
Was man nicht alles vergisst wenn es automatisch läuft…
Hab schon ein paar mal den kompletten Paperless Ordner auf ein anderes Volume kopiert oder einen älteren Stand wiederhergestellt und den Stack neu gestartet.
Hat immer funktioniert.
Was mir immer wichtig ist dass alle Ordner im Paperless Verzeichnis den gleichen Zeitstempel der Sicherung haben!
Ich sichere auch keinen alten Stand auf eine neuere Paperless Version.
Da ich mindesten einmal die Woche mt Paperless arbeite und meine Container alle im Blick habe weiß ich schon welche Datensicherung zum Softwarestand der Container passt.
Ob das nun alles zu 100% richtig ist kann ich nicht sagen, bei mir funktioniert es so.
Ist euch das wirklich lieber als über SSH? Ich frage deshalb, weil ich die paperless-ngx Masterclass bald überarbeiten werde und ich am überlegen bin, auch den Weg über die GUI zu zeigen (als Alternative).
Guten Morgen Stefan,
ich denke da hat jeder (je nach Know-How) so seine bevorzugte Methode.
Ich persönlich gehe auch lieber über die GUI.
Zum einen weil ich mich auf SSH-Ebene nicht ganz so wohl fühle (da fehlt mir einfach oft das detallierte Hintergrundwissen) und zum anderen weil ich die Administration über die GUI einfach übersichtlicher finde.
Ich fänd es also super, wenn der alternative Weg auch behandelt werden würde.
Ich bin jetzt auch nicht der neue Masterclass Kunde und beruflich selber Admin für ein CAD Programm, aber ich würde mich immer für eine GUI entscheiden.
Warum, weil wenn ich nur was abtippe ohne dass ich weiß was wirklich passiert, oder was passieren kann wenn ich mich vertippe , habe ich die ganzen sudo Befehle nach ein paar Wochen vergessen und fange immer wieder von neuem an.
Wüsste auch grad nicht dass man irgend ein neues modernes Programm per SSH installieren muss.
Jede poplige Freeware hat eine kleine Installationsroutine wo ich die Auswahl zwischen Installieren, Abbrechen oder benutzerdefinierte Installation habe, das ist eindeutig und wird von jedem verstanden.
Nur eine Yaml Datei mit den ENVs, die installation in der Synology als Projekt, da schafft jeder die Installation binnen weniger Minuten, sofern man die Rechte der Ordner ordentlich vergeben hat.
Darum habe ich damals Portainer bevorzugt, bin aber inzwischen auf Synology Projekte umgestiegen.
Mag ja sein dass die Proxmox und Unraid User sich besser mit SSH auskennen und damit auch Spass dran haben, aber ich behaupte mal das ist bei weitem nicht die Mehrheit die sich für die Masterclass oder was man sonst noch anbietet, entscheidet.
Unerfahrene User, von denen sich auch einige hier melden, werden immer eine einfache und nachvollziehbare Lösung bevorzugen.
Vor allen weil man sich von seinen Persönlichen Einstellungen schöne Snippings erstellen und speichern kann.
Ich finde es gut, dass man grundsätzlich verstehet was der Container Manager bzw. die Projekte machen und dass im Hintergrund diverse Befehle ausgeführt werden, aber wirklich brauchen tu ich das auf der Synology nicht.
Ich verwalte die Diskstation und die Berechtigungen dort ja auch nicht über SSH - nur weil es geht und im Hintergrund laufen genauso shell Befehle ab!
Wenn sich die Masterclass an Synology Benutzer richtet - aus meiner Sicht eindeutig GUI.
Mit einem eigenen Kapitel wie man das mit SSH machen kann für Freaks und für User die keine Synology haben und das im Docker machen „müssen“
Ein Faktor der auch nicht außer acht zu lassen ist aus meiner Sicht ist, dass SSH im Standard auf der Diskstation gar nicht aktiv ist und man sich damit sogar zusätzliche Sicherheitslücken aufmacht wenn man keine vertiefte Ahnung darüber hat.
Das erspart man sich über den eingebauten Container Manager