Wie konnte ich alle Dateien im Dateiserver rekursiv crawlen?

724
user3675188

Auf einem Dateiserver http://xxxx.com befinden sich Tausende von Dateien

Ich habe versucht, es mit dem Tool zu kriechen httrack

Es funktioniert nicht. Gibt es ein alternatives Tool, das die gesamten Dateien rekursiv auf Basis einer Web-URL herunterladen kann?

Vielen Dank

Wie konnte ich alle Dateien im Dateiserver rekursiv crawlen?

0

1 Antwort auf die Frage

2
Anand Sudhanaboina

Verwenden Sie wget:

wget --mirror -p --html-extension --convert-links www.example.com

die Optionen erklärt:

-p get all images, etc. needed to display HTML page.  --mirror turns on recursion and time-stamping, sets infinite  recursion depth and keeps FTP directory listings --html-extension save HTML docs with .html extensions  --convert-links make links in downloaded HTML point to local files.