wget
--mirror
Befehlszeilen-HTTP-Crawler für Windows?
Mögliches Duplikat:
Wie kann ich eine gesamte Website herunterladen?
Hat jemand eine Empfehlung für einen Website-Crawler, der aufgerufen und mit Einstellungen von der Befehlszeile aus ausgestattet werden kann?
Dies muss in einer Windows-Umgebung ausgeführt werden.
Das Speichern der Daten, das Durchführen von Stylesheet-Links usw. ist kein Problem. Ich brauche den Crawler nur, um mit einer Seite zu beginnen, sie zu analysieren und allen Links auf derselben Domain zu folgen, sodass am Ende alle Seiten der Site einmal angefordert wurden.
Hintergrund: Ich richte eine Website ein, die häufig von einem Bürostandort aus hochgeladen wird. Es kombiniert Daten aus verschiedenen Quellen und verfügt über mehrere Cache-Ebenen. Ich möchte nicht, dass der erste Benutzer, der die Website nach einem erneuten Upload besucht, warten muss, bis die Seite generiert und im Cache gespeichert wurde.
1 Antwort auf die Frage
Verwandte Probleme
-
12
Warum wird der Ordner / winsxs so groß und kann er verkleinert werden?
-
2
Erhöhte Berechtigungen für Startanwendungen in Windows?
-
14
PDF Viewer unter Windows
-
7
Welche Windows-Dienste kann ich sicher deaktivieren?
-
8
Firefox PDF-Plugin zum Anzeigen von PDF-Dateien im Browser unter Windows
-
1
Windows verliert das Bildschirmlayout
-
1
Gibt es eine Möglichkeit, Installationen / Updates zu verhindern, die meine Festplatte mit kryptisch...
-
1
Wie kann ich von Ubuntu aus über das Netzwerk auf Windows Vista-Drucker zugreifen?
-
6
Log Viewer unter Windows
-
3
Windows-Hintergrundproblem mit zwei Bildschirmen