Ich frage mich, ob ich das irgendwie automatisieren kann.
Kaum notwendig, aber ja, Sie könnten ein paar einfache Skripte schreiben.
Kennen Sie ein Werkzeug, das einen solchen Download einfach macht?
wget, curl usw
Sie können die 1000 spezifischen URLs in eine Textdatei einfügen, zwei Verzeichnisse erstellen, cd in das erste Verzeichnis einfügen und ein Tool verwenden, z. B. wget
mit der -i
Option, die Liste der URLs zu lesen und abzurufen. Ein Monat später wiederholt dies im zweiten Verzeichnis, verwenden Sie diff zB diff -r /directory1 /directory2
alle Änderungen zu finden.
Seien Sie vorsichtig bei der Verwendung rekursiver Optionen. Sie können den Server überfordern und verbannen oder Ihren Computer überlasten.
Ich würde es zuerst mit einem kleinen Satz URLs versuchen (zB 2, dann 10, dann 1000).
Eine kostengünstigere Option kann die Verwendung von HTTP-HEAD-Anforderungen sein und darauf vertrauen, dass der Server weiß, ob eine Ressource geändert wurde.
Siehe Wget HEAD-Anfrage?