Wenn die URL so aussieht:
https://code.google.com/p/projectName/downloads/detail?name=yourFILE.tar.gz
Mach es zu:
$wget https://projectName.googlecode.com/files/yourFILE.tar.gz
Das funktioniert gut für mich.
Ich habe ein Google-Code-Projekt, das viele Wiki-Dokumente enthält. Ich möchte eine Kopie dieser Dokumentation für das Offline-Browsen erstellen. Ich möchte gerne wget
ein ähnliches Dienstprogramm verwenden.
Ich habe folgendes versucht:
$ wget --no-parent \ --recursive \ --page-requisites \ --html-extension \ --base="http://code.google.com/p/myProject/" \ "http://code.google.com/p/myProject/"
Das Problem ist, dass Links innerhalb der gespiegelten Kopie Verknüpfungen wie folgt enthalten:
file:///p/myProject/documentName
Diese Umbenennung von Links führt zu 404-Fehlern (nicht gefunden), da die Links im Dateisystem auf keinen gültigen Wert verweisen.
Welche Optionen sollte ich stattdessen verwenden wget
, damit ich eine lokale Kopie der Dokumentation der Website und anderer Seiten erstellen kann?
Wenn die URL so aussieht:
https://code.google.com/p/projectName/downloads/detail?name=yourFILE.tar.gz
Mach es zu:
$wget https://projectName.googlecode.com/files/yourFILE.tar.gz
Das funktioniert gut für mich.
Nachdem ich viel herumgespielt hatte, konnte ich Folgendes für mich arbeiten lassen:
$ wget --no-parent \ --recursive \ --page-requisites \ --html-extension \ --convert-links \ -E -l 3 \ http://code.google.com/p/myProject/
Das Ergebnis ist jetzt völlig in sich abgeschlossen.