Wie kann man wget verwenden, um eine Kopie von Google Code-Site-Dokumenten zu erhalten?

2426
Alex Reynolds

Ich habe ein Google-Code-Projekt, das viele Wiki-Dokumente enthält. Ich möchte eine Kopie dieser Dokumentation für das Offline-Browsen erstellen. Ich möchte gerne wgetein ähnliches Dienstprogramm verwenden.

Ich habe folgendes versucht:

$ wget --no-parent \ --recursive \ --page-requisites \ --html-extension \ --base="http://code.google.com/p/myProject/" \ "http://code.google.com/p/myProject/" 

Das Problem ist, dass Links innerhalb der gespiegelten Kopie Verknüpfungen wie folgt enthalten:

file:///p/myProject/documentName 

Diese Umbenennung von Links führt zu 404-Fehlern (nicht gefunden), da die Links im Dateisystem auf keinen gültigen Wert verweisen.

Welche Optionen sollte ich stattdessen verwenden wget, damit ich eine lokale Kopie der Dokumentation der Website und anderer Seiten erstellen kann?

0
Nur zur Information, die Quelle für die Wiki-Seiten, befindet sich in Ihrem Quell-Repository. Sie können sie also alle herunterladen und über Ihren eigenen Renderer ausführen. Der Hochstapler vor 12 Jahren 0
Das hilft mir nicht, weil es viel Google Code Markup enthält. Ich frage mich, wie ich das mit "wget" oder "curl" (oder ähnlich) machen würde, denke ich. Alex Reynolds vor 12 Jahren 0
@AlexReynolds dies wird dazu beitragen, dass https://addons.mozilla.org/en-US/firefox/addon/google-code-wiki-viewer/ HackToHell vor 12 Jahren 0

2 Antworten auf die Frage

2
vag

Wenn die URL so aussieht:

https://code.google.com/p/projectName/downloads/detail?name=yourFILE.tar.gz 

Mach es zu:

$wget https://projectName.googlecode.com/files/yourFILE.tar.gz 

Das funktioniert gut für mich.

0
Alex Reynolds

Nachdem ich viel herumgespielt hatte, konnte ich Folgendes für mich arbeiten lassen:

$ wget --no-parent \ --recursive \ --page-requisites \ --html-extension \ --convert-links \  -E -l 3 \ http://code.google.com/p/myProject/ 

Das Ergebnis ist jetzt völlig in sich abgeschlossen.