Wie kann ich die Bilder einer öffentlichen Website mit wget abrufen?

4088
3498DB

Wie kann ich die Bilder einer öffentlichen Website mit wget abrufen? Es ist keine riesige Website: Es hat ungefähr 40 Seiten mit ungefähr drei Bildern pro Seite.

Ich möchte vermeiden:

  1. Bilder manuell herunterladen
  2. Die gesamte Site herunterladen

Irgendwelche Ideen?

4
Ich möchte dies wirklich tun, um Stack Overflow und die SO-Trilogie für ihre kranken Layoutbilder auf sstatic.net auszuführen. Maxim Zaslavsky vor 14 Jahren 0

4 Antworten auf die Frage

7
user10547

Sie können wget verwenden und angeben, dass nur Bilddateien heruntergeladen werden sollen oder http://www.downthemall.net/.

Über http://www.delorie.com/gnu/docs/wget/wget_31.html

Sie möchten alle GIFs aus einem Verzeichnis auf einem HTTP-Server herunterladen. Sie haben `wget http://www.server.com/dir/ * .gif ' ausprobiert, aber das hat nicht funktioniert, da HTTP-Abruf kein Globbing unterstützt. In diesem Fall verwenden Sie:

wget -r -l1 --no-parent -A.gif http://www.server.com/dir/ 

Mehr wortreich, aber der Effekt ist der gleiche. -r -l1' means to retrieve recursively (see section 3. Recursive Retrieval), with maximum depth of 1.--no-parent 'bedeutet, dass Verweise auf das übergeordnete Verzeichnis ignoriert werden (siehe Abschnitt 4.3 Verzeichnisbasierte Grenzwerte), und ein -A.gif' means to download only the GIF files."* .gif"' hätte ebenfalls funktioniert.

Das ist der Geist!! Warum kann ich dich nicht unterstützen? ... vor 14 Jahren 1
Sie benötigen 15 Karma-Punkte, um eine Stimme abzugeben ... aber ich kann :) +1 vor 14 Jahren 0
1
user101906

Ich schreibe ein Programm namens ifetch, Sie können es versuchen. http://sourceforge.net/p/ifetch/wiki/Home/

0

Online-Bilder-Batch-Download 1.1.0 (Firefox-Addon)

0
Lazer

sehen dies .

Die zweite Vorlage enthält alle Bilder der Website . Ich denke, das war es, was du wolltest?