Wenn Sie die Anzahl der Seiten kennen, können Sie eine for-Schleife verwenden:
for i in ; do wget -r -l1 URL?page=$i; done
Ich habe eine Webseite, die im Wesentlichen aus einer Liste von Links zu anderen Seiten besteht. Mit wget möchte ich alle aufgeführten Seiten herunterladen.
Mit "wget -r -l1 URL" bekomme ich im Grunde das, was ich will.
Wie gehen Sie jedoch vor, wenn die Liste auf mehrere Seiten aufgeteilt ist (URLs enden auf "? Page = 3", "? Page = 4" ....).
Wenn Sie die Anzahl der Seiten kennen, können Sie eine for-Schleife verwenden:
for i in ; do wget -r -l1 URL?page=$i; done