Gibt es ein Befehlszeilentool, mit dem die gesamte Webseite gespeichert werden kann, um sie später im Offline-Modus zu lesen?

447
4253wyerg4e

Wenn Sie eine Webseite in Firefox / Chrome lesen, können Sie Ctrl+ drücken S, um die Webseite mit ihren Inhalten (einschließlich CSS, JavaScript, Bilder usw.) herunterzuladen, um sie später offline lesen zu können. Ich frage mich, ob es eine Möglichkeit gibt, diese Aufgabe mithilfe einer Befehlszeile zu imitieren, die dasselbe Downloadergebnis liefert.

Ich weiß, dass es wgetund gibt curl. Als ich sie jedoch ausprobiert habe, crawlen sie nicht dasselbe (mit Firefox und Ctrl+ S von Dateien, die benötigt werden, um die Seite später offline zu lesen.

Kann mir jemand sagen, ob es ein cmd-Tool (vielleicht die Befehlszeilenversion von Firefox, Chromium?) Für diesen Zweck gibt?

0
Ich möchte alle Quelldateien behalten, die zum Rendern der Seite benötigt werden. Und Strg + P ist jedoch kein Cmdline-Tool. 4253wyerg4e vor 5 Jahren 0
Richtig, Entschuldigung, ich habe den Punkt verpasst. glenn jackman vor 5 Jahren 0
und Chromium ist keine Befehlszeilenversion von Firefox: Es ist die Open Source-Version von Chrome. glenn jackman vor 5 Jahren 0
Ich glaube, Chromium hat eine CLI, oder? Wie das Headless-Browsing mit Firefox-cmd. 4253wyerg4e vor 5 Jahren 0
https://www.keycdn.com/blog/headless-browsers/ glenn jackman vor 5 Jahren 0
wget sollte funktionieren, es soll in der Lage sein, eine komplette Website *** zu durchsuchen und zu speichern ***. Vielleicht haben Sie es einfach nicht richtig benutzt? Xen2050 vor 5 Jahren 0
Ich habe wget mit mehreren Flags ausprobiert, oder es wird die gesamte Website rekursiv durchsucht, oder alle Ressourcen, die zum späteren Rendern der Webseite benötigt werden, werden nicht durchsucht, genau wie bei Strg + s im Browser. Könnten Sie mir bitte die wget-cmd nennen, die Sie verwenden würden? 4253wyerg4e vor 5 Jahren 0

0 Antworten auf die Frage