PAPERLESS_TASK_WORKERS=1
PAPERLESS_THREADS_PER_WORKER=3 oder 4
Ensure that the product
PAPERLESS_TASK_WORKERS * PAPERLESS_THREADS_PER_WORKER
does not exceed your CPU core count or else paperless will be extremely slow. If you want paperless to process many documents in parallel, choose a high worker count. If you want paperless to process very large documents faster, use a higher thread per worker count.
und die Parameter müssen in die docker-compose.env
4/1 + 1/4 hängen sich beide Raspberrys auf bzw. sind komplett überfordert und nach nem Reboot siehe da wird dein Dokument Doppelt verarbeitet
2/2 hat auch nicht funktioniert.
im Moment laufen 2 Instanzen mit 3/1 und 1/3 … der nächste Versuch wäre 2/1 und 1/2
Hat leider alles nichts gebracht… der Pi ist die unterste Nahrungskette für solche Seitenanzahl.
Erstaunlicherweise hat er im letzten Test am längsten durchgehalten.
Das ließe sich beim nächsten mal über eine SSH Sitzung rausbekommen.
mit dem command „uptime“ wird die dir Laufzeit angezeigt wie lange das System bereits läuft.
Sollten da nicht gerade wenige Minuten stehen sondern Stunden war das nicht die Ursache davon.
Nachdem Ihr mir hier so viel Hilfe habt zukommen lassen, das Ausgangsproblem aber hartnäckig bestehen blieb, hatte ich zuletzt eine völlige Neuinstallation von paperless durchgeführt.
Und: Oh Wunder - alles scheint nun okay zu sein.
Ich verstehe es zwar nicht, da bei einem Vergleich zur Vorversion die Konfigurationsdateien keine erkennbaren Unterschiede aufweisen, doch ich will nicht daran rühren.
Hauptsache, wir können nun auch größere Scans durchführen .
Aber je mehr ich mich mit dem System befasse, desto mehr Fragen tauchen auch schon auf.