Mehrere extern eingebundene Laufwerke wie automatisch scannen?

Hallo Forum,

wir nutzen hier aktuell testweise Nextcloud in unserem Büro. Wir haben ca 20 verschiedene User die einen Zugang zur Cloud haben. Momentan klappt das alles so einigermaßen. Nun ist es so dass wir hier im Büro ein Datenserver haben, dort liegen sehr sehr viele Projektordner drin. Insgesamt rund 500 TB. Ich habe anfangs die ganzen Ordner “Projekte” in die Nextcloud als external storage eingebunden. Allesdings waren die Ladezeiten jenseits von Gut und Böse. Dann haben wir es so gemacht, dass ich jedem Mitarbeiter (aktuell rund 20) immer seine 5 Projekte als eigenständiges external storage eingebunden habe. In der Hoffnung dass das dann alles flotter geht. Tut es auch… Aktuell haben also 20 Mitarbeiter den sync client auf ihrem tablet und synchen die 5-7 Projekte (Unterordner aus Hauptordner “Projekte”) die sie brauchen.

Das Problem: im Büro arbeiten hier halt noch deutlich mehr Kollegen (ohne Cloudzugriff), die arbeiten direkt auf dem Datenserver in den jeweiligen Projekten. Schiebt nun ein Kollege neue Dateien in ein Projekt UND hat ein anderer Kollege dieses Projekt als externes Laufwerk lokal auf seinem Tablet (Aussendienstmitarbeiter) dann bekommt die Cloud ja nichts mit dass da jetzt neue Dateien liegen.

Alles was ich gefunden habe ist der occ Befehl “files:scan --all”. So wie ich verstanden habe schaut die cloud nun sowohl in jedem user Datenverzeichnis als auch in JEDEM external storage ob es Änderungen gab die die Cloud nicht mitbekommen hat… aber dieser Befehl dauert hier so um die 2 Tage bis er fertig ist… und auf den aktuell rund 30-40 external Storages gibt es ständig Änderungen hier… Wie löse ich dieses Grundproblem? Kann ich nicht irgendwie alle paar Minuten automatisiert einen Scan für jedes extern eingebundene Laufwerk durchführen? Wie handhabt man das in der Praxis?

Danke, lG Mirko

PS: Wenn ich der Cloud nicht auf schnelle Art und Weise automatisiert sagen kann dass sich auf dem Datenserver hier was getan hat…dann ist das ganze doch eigentlich wertlos für uns oder??

Vielleicht kapier ich aber auch was grundsätzliches nicht…

Moin,
also als Quick&Dirty würde mir mal folgendes Szenario einfallen:

Du erstellst ein Bash-Script, welches die besagten Ordner (per Cronjob alle X Minuten) nach Veränderung/anwesenden Dateien oder Ordnern scant und wenn dieses Script in einem der Ordner eine “Veränderung” feststellt, dann wird ein “sudo -u www-data occ files:scan --path $PFAD_DES_AKTUELL_ERKANNTEN_ORDNER” ausgeführt.
Dies dürfte wohl den Server-Stress recht minimieren. Aber weder Deine bisherige Vorgehensweise, noch mein potentieller “Lösungsvorschlag” dürften unter “esthetisch” fallen :smiley: