Wie wäre es mit so etwas?
wget -Nr -A.zip http://ftp2.cits.rncan.gc.ca/pub/geobase/official/nhn_rhn/gdb_en/01
Ich bin auf der Suche nach einem Web-Download-Manager, der intelligent sein kann und nur neue oder geänderte Dateigrößen überschreiben oder umbenennen kann. Ein paar Mal im Jahr muss ich lokale Kopien von mehreren zehn bis hundert Gigabytes an Dateien auffrischen.
Bis heute habe ich FileZilla und WinSCP verwendet, die beide die Möglichkeit haben, den Datums- / Zeitstempel der lokalen Datei und die Dateigröße mit der Kopie des Servers zu vergleichen und nur die Unterschiede herunterzuladen. Eine sehr nützliche Funktion, die sowohl für mich als auch für die Hosts Stunden und Stunden und eine Bandbreite von 100 GB GB einspart.
Ftp funktioniert immer noch, jedoch drosseln die Hosts ftp auf 4 Verbindungen und max. Kombinierte Geschwindigkeit von ~ 1-2 MB / s. Die gleiche Site über http ist auf 8 Verbindungen und ~ 3-4 MB / s kombinierte Geschwindigkeit beschränkt. Mit ftp muss ich den Job so einstellen, dass er über Nacht ausgeführt wird, um zu sehen, wie es am Morgen lief (und möglicherweise einiges wiederholen). Mit http kann ich den Job über Mittag laufen lassen, auch wenn blind alle Dateien überschrieben werden, statt nur geänderte Dateien, und auf Fehler oder Wiederherstellungen sofort reagieren.
Gibt es eine Möglichkeit, nur neue geänderte Dateien aus einer http-Quelle herunterzuladen?
Windows bevorzugt, aber ich kann eine Linux-VM hochfahren, wenn dies der beste Kurs ist.
Dies ist in einer Unternehmenseinstellung, die einen Firewall-Regelsatz "Keine Torrents" zulässt und erzwingt. Schade, dies ist ein perfektes Szenario für eine Anwendung von Peer-to-Peer-Technologie außerhalb von Warez.
Eine Quelle zum Testen mit: http://ftp2.cits.rncan.gc.ca/pub/geobase/official/nhn_rhn/
Wie wäre es mit so etwas?
wget -Nr -A.zip http://ftp2.cits.rncan.gc.ca/pub/geobase/official/nhn_rhn/gdb_en/01