Normalerweise funktionieren die Updates auch mit dem Container Manager.
Würde einfach beim nächsten Update von Paperless einen Tag warten und schauen und warten ob das Update angeboten wird.
Wenn der Manager kein Update erkannt hat wurde es deshalb evtl. nicht installiert.
Was funktionieren müsste : Bereinigen > das Image löschen > Erstellen
Laufen alle Container nachdem das Projekt gestartet wurde?
Ich würde erst mal die Firewall ausstellen (wenn aktiviert) und Paperless ganz normal per http://lokalerIp:8000 aufrufen.
Die Meldung schaut aus als gäbe es mit der https Verbindung ein Problem.
Dein Volume pgdata liegt virtuell im Docker Host, ergo das hast Du nicht gelöscht. Wenn Du dieses Volume genau wie die anderen Volumes mit einem Ordner mountest, könntest Du es danach auch einfach löschen oder umziehen.
@janwidmer Du hattest oben geschrieben dass Du Paperless per SSH aufgesetzt hast, weshalb ich davon ausgehe dass Du Zugriff auf Deinen Server und somit den Docker Host hast.
Wenn Du nun per SSH auf Deinen Server zugreifst und „docker volume ls“ eingibst, siehst Du alle Volumes des Container Managers (=Docker). Dein pgdata wird noch vorhanden gewesen sein, als Du vorher eine neue Instanz aufgesetzt hattest. Dies beantwortet Deine Frage, warum Du in der frischen Instanz die vorher geladenen Dokumente siehst, denn Deine Datenbank ist ja noch vorhanden, nur ist das Volume nicht sichtbar.
Grundsätzlich würde ich empfehlen das Volume pgdata genauso wie alle anderen Volumes einem Ordner zuzuweisen, wie folgt im Abschnitt db:
@janwidmer Irgendwie ist es schwer rauszufinden was Du wirklich willst. Ich mache nochmal einen Versuch Ich vermute mal Du möchtest gerne die einmalig gescannten Dokumente erhalten und trotzdem mit den Containern experimentieren?
Was @ROIOS und @Jake schreiben ist alles richtig, Dreh- und Angelpunkt bleibt aber Deine Datenbank, und diese liegt im Volume pgdata.
Falls Du meinen Tipp mit der Änderung zum Volume befolgst (- /volume1/docker/paperless-ngx/pgdata:/var/lib/postgresql/data) liegt Deine Datenbank konkret auf Deinem Server und wird nicht (!) gelöscht, solltest Du im Container Manager oder sonst wie die Container löschen oder ändern.
Ob Du dann Paperless als Projekt oder jeden Container einzeln anlegst, hat damit nichts zu tun, wichtig ist nur der Weg zur Datenbank.
So schauts aus! In der Docker Compose werden die Laufwerke gemappt, und die Pfade ändern sich auch nicht.
Falls du das Volume oder den Ordner der Datenbank verändert hast, musst du das in der docker-compose anpassen! Wenn du eine extra env Datei hast, ist die auch im passenden Verzeichnis vorhanden?
Wobei was mir komisch vorkommt ist dass Paperless ohne Datenbank eigentlich nicht starten dürfte.
Ohne irgendwelche Angaben erzeugt Paperless unter /var/lib/docker/volumes eine leere Instanz der DB, es sei denn er findet bereits ein zur Konfig passendes Volume, und damit schließt sich der Kreis
@Thomas241 Ich habe Paperless initial via SSH mit der Hilfe der Masterclass installiert. Dabei befinden sich die docker dateien wie docker-compose.yml in einem sub folder /config.
pgdata ist ja bereits als Volume drin - pgdata:/var/lib/postgresql/data, aber ohne path. Heisst das, dass die DB im Docker drin ist, anstatt lokal auf meinem Synology?
Aus Sicht Deiner Frage heißt es genau das, ja.
Allerdings ist Docker wie auch alles andere natürlich auch auf Deiner Synology.
Ohne eine Pfadangabe wird Deine DB hier var/lib/docker/volumes angelegt.
Nachteil ist dass man dies weder sieht noch umziehen kann. Verwendest Du die Anbindung wie von mir empfohlen, siehst Du alle Daten im pgdata Ordner und kannst diesen Ordner auch einfach mit zu einer neuen Instanz umziehen.
Virtuelle Volumes sollte man generell nicht für Daten verwenden, welche man dauerhaft behalten möchte.
Hast du wirklich die Docker-Compose aus der Masterclass verwendet?
Dass man die wichtigen Daten nicht auf Volumes speichert hab ich bisher nur bei ganz alten Paperless Anleitungen gesehen.
Vor allem der Export direkt in den Container macht ja gar keinen Sinn…
Das hat nichts mit Paperless zu tun sondern mit Docker. Und ich glaube dass man seine DB nicht zwingend mit Docker verknüpfen sollte, ist doch wohl nicht fraglich, oder.
Letztlich sind die virtuellen Mounts nur für interne Verknüpfungen gut und vereinfachen den Start einer jeden Komponente in der Docker Welt.
Spätestens wenn Du langlebige Anwendungen auf einen neuen Server umziehen musst, gibt es Probleme.
Deswegen kann ich aus langjähriger Erfahrung nur dringend dazu raten, immer alles in eigene Ordner zu mounten, kostet ja außer den Ordner anlegen keinen Aufwand.
Schon klar, hab mich nur direkt auf die gepostete docker-compose bezogen.
Bei allen anderen Vorlagen für Docker Projekte, die ich kenne, wird mit Volumes gearbeitet.
Hätte man vor dem Umbau auf den Container Manager die Docker-compose so angepasst dass der Export auf einem Volume gespeichert wird, hätte man sich viel Ärger erspart.