Wie kann ich eine komplette Website herunterladen?
696293
joe
Wie kann ich alle Seiten von einer Website herunterladen?
Jede Plattform ist in Ordnung.
@tnorthcutt, ich bin auch überrascht. Wenn ich mich nicht an furchtbare Fehler erinnere, war meine Wget-Antwort die akzeptierte, und dies sah aus wie eine feste Angelegenheit. Ich beklage mich jedoch nicht - auf einmal gab mir die erneute Aufmerksamkeit mehr als die Wiederholung der Reichtümer. : P
Jonik vor 15 Jahren
0
hast du IDM ausprobiert? http://superuser.com/questions/14403/how-can-i-download-an-entire-website/42379#42379 Mein Posting ist begraben. Was fehlt Ihnen in IDM?
Lazer vor 15 Jahren
0
@Joe: Könnte helfen, wenn Sie Details zu den fehlenden Funktionen angeben würden ...
Ilari Kajaste vor 15 Jahren
5
Besuchen Sie http://serverfault.com/questions/45096/website-backup-and-download für Serverfehler.
Marko Carter vor 15 Jahren
2
[browse-offline.com] (http://www.browse-offline.com) kann den vollständigen Baum der Website herunterladen, sodass Sie ihn offline durchsuchen können
Menelaos Vergis vor 10 Jahren
0
@MenelaosVergis browse-offline.com ist weg
user5389726598465 vor 7 Jahren
0
Ja, ich habe nicht einmal den Code dafür!
Menelaos Vergis vor 7 Jahren
0
FYI bitte nur betrügen !!! Laden Sie nicht von https://websitedownloader.io/ herunter, es wird eine kleine Menge verlangt, die zwar überzeugend aussieht, aber nur eine Webseite herunterlädt und nicht für normale Websites geeignet ist.
Anil Bhaskar vor 6 Jahren
0
HTTRACK funktioniert wie ein Champion, um den Inhalt einer gesamten Site zu kopieren. Dieses Tool kann sogar die Teile erfassen, die erforderlich sind, um eine Website mit aktivem Codeinhalt offline arbeiten zu lassen. Ich bin erstaunt über das Zeug, das es offline replizieren kann.
Dieses Programm wird alles, was Sie dafür brauchen.
Fröhliches Jagen!
Ich benutze dies seit Jahren - sehr zu empfehlen.
Umber Ferrule vor 15 Jahren
6
Sie können auch die Downloadgeschwindigkeit einschränken, so dass Sie nicht zu viel Bandbreite zum Nachteil aller anderen verwenden.
Umber Ferrule vor 15 Jahren
0
Endlich ist dieser etwas besser als andere;)
joe vor 15 Jahren
0
Würde dies den eigentlichen ASP-Code kopieren, der auf dem Server ausgeführt wird?
Taptronic vor 14 Jahren
3
@Optimal Solutions: Nein, das ist nicht möglich. Sie benötigen dazu Zugriff auf die Server oder den Quellcode.
Sasha Chedygov vor 14 Jahren
7
Nachdem ich sowohl httrack als auch wget für Websites mit Autorisierung ausprobiert habe, muss ich mich für wget entscheiden. In diesen Fällen konnte httrack nicht zum Laufen gebracht werden.
Leo vor 12 Jahren
1
Was ist die Option für die Authentifizierung?
vincent mathew vor 11 Jahren
0
Was ist, wenn ich versuche, Wiki zu kopieren?
Timothy vor 10 Jahren
0
Ein schönes Tutorial für den grundlegenden Gebrauch - http://www.makeuseof.com/tag/save-and-backup-websites-with-httrack/
Borat Sagdiyev vor 9 Jahren
0
Ich möchte zum Beispiel die großen Bilder aus den Auflistungen bei ebay herunterladen (die in den einzelnen Auflistungen angezeigt werden), indem Sie den Link des Suchergebnisses verwenden. Kann mir jemand die Einstellungen für HTTrack mitteilen, die ich dazu verwenden kann?
und3rd06012 vor 9 Jahren
0
Unterstützt dies das Herunterladen von seiteninternen Inhalten wie mywebsite.com/games?page=1, mywebsite.com/games?page=2, da es so aussieht, als würde es zuvor erstellte Seiten überschreiben und nur die letzte Seite anzeigen. Bitte beraten
Teoman shipahi vor 8 Jahren
0
Unterstützt es Cookies (Sitzungen)?
jayarjo vor 7 Jahren
0
246
Jonik
Wget ist ein klassisches Befehlszeilentool für diese Art von Aufgabe. Es wird mit den meisten Unix / Linux-Systemen geliefert und ist auch für Windows erhältlich . Auf einem Mac ist Homebrew der einfachste Weg, um es zu installieren ( brew install wget).
Es gibt keine bessere Antwort als diese - wget kann alles tun: 3
Phoshi vor 15 Jahren
11
+1 for including the --no-parent. definitely use --mirror instead of -r. and you might want to include -L/--relative to not follow links to other servers.
quack quixote vor 15 Jahren
4
Ich glaube nicht, dass ich --mirror selbst benutzt habe, also habe ich nicht die Antwort darauf gestellt. (Und es ist * nicht * wirklich völlig "selbsterklärend", wie Pauls Antwort sagt ...) Wenn Sie näher darauf eingehen wollen, warum es besser ist als -r würde ich es schätzen!
Jonik vor 15 Jahren
1
Wie ich auch nach httrack.com gefragt habe - würde dieses Cmd-Line-Tool den ASP * -Code * erhalten, oder würde es nur die Darstellung des HTML-Codes erhalten? Ich muss das versuchen. Dies könnte für Entwickler etwas besorgniserregend sein, wenn ...
Taptronic vor 14 Jahren
2
@optimal, die HTML-Ausgabe natürlich - sie würde den Code nur erhalten, wenn der Server falsch konfiguriert wurde
Jonik vor 14 Jahren
5
leider funktioniert es nicht für mich - es gibt ein problem mit links zu css-dateien, sie werden nicht in relativ geändert, d. h. sie können so etwas in dateien sehen: was lokal nicht gut funktioniert, es sei denn, es gibt keinen waz, um Firefox zu überlisten zu denken, dass ein bestimmtes Verzeichnis eine Wurzel ist.
gorn vor 12 Jahren
2
Homebrew zeigt, wie man es auf seiner Homepage http://brew.sh/ installiert.
Eric Brotto vor 10 Jahren
2
Httrack vs Wget? Welches sollte ich auf einem Mac verwenden?
6754534367 vor 8 Jahren
0
@ gorn Das könnte mit einer chroot machbar sein, obwohl ich es noch nie probiert habe.
wjandrea vor 7 Jahren
0
132
Yay295
Verwenden Sie wget:
wget -m -p -E -k www.example.com
Die Optionen erklärt:
-m, --mirror Turns on recursion and time-stamping, sets infinite recursion depth, and keeps FTP directory listings. -p, --page-requisites Get all images, etc. needed to display HTML page. -E, --adjust-extension Save HTML/CSS files with .html/.css extensions. -k, --convert-links Make links in downloaded HTML point to local files.
+1 für die Erklärung der vorgeschlagenen Optionen. (Obwohl ich nicht denke, dass "--mirror" sehr selbsterklärend ist. Hier ist von der Manpage: "* Mit dieser Option werden Rekursion und Zeitstempel aktiviert, eine unbegrenzte Rekursionstiefe festgelegt und FTP-Verzeichnislisten gespeichert. Sie ist derzeit gleichwertig an -r -N -l inf --no-remove-Listing * ")
Ilari Kajaste vor 15 Jahren
6
Wenn Sie nicht alles in einen Ordner mit dem Namen der Domäne herunterladen möchten, die Sie spiegeln möchten, erstellen Sie einen eigenen Ordner und verwenden Sie die Option -nH (die den Host-Teil überspringt).
Rafael Bugajewski vor 12 Jahren
2
Was ist, wenn die Auth erforderlich ist?
Val vor 11 Jahren
2
Ich habe versucht, Ihr `wget --mirror -p --html-extension --convert-links www.example.com` zu verwenden, und der Index wurde gerade heruntergeladen. Ich denke, Sie benötigen das `-r`, um die gesamte Site herunterzuladen.
Eric Brotto vor 10 Jahren
4
Wenn Sie sich Sorgen machen möchten, dass eine Website aufgrund von Datenverkehr / zu vielen Anforderungen getötet wird, verwenden Sie die Option -w Sekunden (zum Abwarten einer Anzahl von Sekunden zwischen den Anforderungen oder `--limit-rate = Betrag '), um die maximale Bandbreite anzugeben während des Herunterladens verwenden
vlad-ardelean vor 10 Jahren
3
@EricBrotto Sie sollten nicht sowohl `--mirror` als auch` -r` brauchen. Auf der Manpage `wget`:" [--mirror] entspricht derzeit -r ".
evanrmurphy vor 9 Jahren
1
"-p" steht für "--page-requisites", für alle anderen, die sich fragen.
evanrmurphy vor 9 Jahren
2
Bei Verwendung von 'wget' werden keine Dateien in Javascript referenziert. Zum Beispiel werden in ` ` die Bilder für Mouseout und Mouseover übersehen.
starfry vor 9 Jahren
1
Weiß jemand, wie ich wget verwenden kann, um die großen Bilder der Angebote bei ebay zu erhalten? Zum Beispiel möchte ich die großen Bilder von diesem Link erhalten: http://www.ebay.com/sch/i.html?_from=R40&_trksid=p2051542.m570.l1313.TR0.TRC0.H0.X1974+stamps.TRS0&_nkw = 1974 + Briefmarken & _sacat = 0. Um genauer zu sein, möchte ich, dass die Bilder angezeigt werden, wenn Sie mit der Maus über das Bild fahren.
und3rd06012 vor 9 Jahren
1
Für mich funktioniert es nicht wie erwartet, es werden nicht alle Links innerhalb der Seite neu erstellt, um offline durchsuchbar zu sein
chaim vor 8 Jahren
1
Wenn Sie nur `www.example.com / foo` herunterladen möchten, verwenden Sie die Option` --no-parent`.
Cinnam vor 8 Jahren
0
Dies scheint mit einigen Hyperlinks zu verwechseln: / contact wurde in index.html? P = 11 konvertiert (das auch in das Verzeichnis der obersten Ebene kopiert wurde, obwohl contact / index.html ebenfalls heruntergeladen wurde).
hayd vor 7 Jahren
0
Ah, das sind anscheinend Weiterleitungen in WordPress, die aber nicht von wget aufgelöst werden und seltsamerweise in der heruntergeladenen HTML-Datei verwendet werden, wenn sie in der ursprünglichen HTML-Datei aufgelöst werden (kein "p =" -Link im "a" -Tag).
hayd vor 7 Jahren
0
Wenn Sie eine lokal ausgeführte Site ausgeben möchten, verwenden Sie "localhost: 4000" (oder was auch immer Ihr Port ist) und nicht "127.0.0.1":`oder es geht nicht - zumindest nicht für mich. Aus irgendeinem Grund würde es nur die `index.html` -Dateien für jede Seite auf meiner Site und nicht alle Assets, CSS usw. abrufen.
Evan R vor 6 Jahren
0
8
Lazer
Der Internet Download Manager verfügt über ein Site Grabber-Dienstprogramm mit vielen Optionen, mit dem Sie jede gewünschte Website vollständig und wie gewünscht herunterladen können.
Sie können den Grenzwert für die Größe der herunterzuladenden Seiten / Dateien festlegen
Sie können die Anzahl der zu besuchenden Zweigstellen festlegen
Sie können das Verhalten von Skripts / Popups / Duplikaten ändern
Sie können eine Domäne angeben. Nur unter dieser Domäne werden alle Seiten / Dateien heruntergeladen, die den erforderlichen Einstellungen entsprechen
Die Links können zum Durchsuchen in Offline-Links umgewandelt werden
Sie haben Vorlagen, mit denen Sie die obigen Einstellungen für Sie auswählen können
Die Software ist jedoch nicht kostenlos - prüfen Sie, ob sie Ihren Anforderungen entspricht, verwenden Sie die Testversion.
8
webjunkie
Sie sollten sich ScrapBook, eine Firefox-Erweiterung, ansehen . Es verfügt über einen umfassenden Aufnahmemodus .
Nicht mehr kompatibel mit Firefox nach Version 57 (Quantum).
Yay295 vor 6 Jahren
2
Ich werde die Online-Pufferung ansprechen, die Browser verwenden ...
Normalerweise verwenden die meisten Browser einen Browsing-Cache, um die Dateien, die Sie von einer Website herunterladen, ein wenig aufzubewahren, sodass Sie keine statischen Bilder und Inhalte immer wieder herunterladen müssen. Dies kann die Dinge unter Umständen etwas beschleunigen. Im Allgemeinen sind die meisten Browser-Caches auf eine feste Größe beschränkt. Wenn sie diese Grenze erreicht, werden die ältesten Dateien im Cache gelöscht.
ISPs verfügen in der Regel über Zwischenspeicherungsserver, auf denen Kopien von Websites, auf die häufig zugegriffen wird, wie ESPN und CNN, gespeichert werden. Dies erspart ihnen die Mühe, diese Sites jedes Mal zu treffen, wenn jemand in ihrem Netzwerk dorthin geht. Dies kann zu erheblichen Einsparungen bei der Anzahl der doppelten Anfragen an externe Sites an den ISP führen.
5
Eran
Ich mag den Offline Explorer . Es ist eine Shareware, aber es ist sehr gut und einfach zu bedienen.
4
Bobby Ortiz
Ich habe das seit vielen Jahren nicht mehr gemacht, aber es gibt immer noch ein paar Dienstprogramme. Möglicherweise möchten Sie Web Snake ausprobieren . Ich glaube, ich habe es vor Jahren benutzt. Ich erinnerte mich sofort an den Namen, als ich Ihre Frage las.
Ich stimme Stecy zu. Bitte hämmern Sie nicht auf ihre Seite. Sehr schlecht.