Warum wird die gesamte Website nicht heruntergeladen?

625
Zaz

Ich habe versucht, eine Kopie der Site wiredhealthresources.netmit dem folgenden Befehl zu erstellen:

wget -rpkl inf wiredhealthresources.net 

Der Befehl hat jedoch nur 54 Dateien heruntergeladen! Die meisten Seiten fehlen zB /topics-cardiology.htmltrotz verlinkter Seiten/index.html

Was habe ich falsch gemacht? Warum wird wgetnicht die gesamte Site heruntergeladen?

1
Obwohl ich die Frage nicht selbst beantworten kann, würde ich vorschlagen, [HTTrack] (http://www.httrack.com/page/1/en/index.html) auszuprobieren, da ich damit mehr Erfolg hatte. Sam3000 vor 7 Jahren 0

2 Antworten auf die Frage

4
Nathan

Wenn Sie sich die Seitenquelle ansehen, wird kein topics-cardiology.htmlLink angezeigt, da die Seitenleiste von JavaScript generiert wird. Sie benötigen einen JavaScript-Browser ohne Browser wie CasperJS, um einen vollständigen Spiegel zu erstellen .

Ahh! Macht Sinn. Ich hätte die Quelle überprüfen sollen. Vielen Dank! Zaz vor 7 Jahren 0
Kennen Sie ein gutes CasperJS-Skript, um eine Website zu spiegeln? Ich habe Mühe, einen zu finden. Zaz vor 7 Jahren 0
-1
Warley

Ich bin ziemlich sicher, dass Sie die infOption nicht verwenden können, um die Tiefe zu ändern, nur um Versuche oder Abfragen zu ändern. Hast du es mit und -manstelle von -rund versucht -l? Es klingt, als würden Sie die Seite spiegeln wollen, und genau -mdafür werden sie verwendet.

Sowohl mit '-l 99' als auch mit 'wget -pkm' wird dasselbe Ergebnis erzielt: Es werden nur 54 Dateien heruntergeladen. Die Manpage sagt "-m" ist äquivalent zu "-r -N -l inf --no-remove-Listing", von wo ich das "-l inf" bekomme. Zaz vor 7 Jahren 0