Wie kann ein Bulk-Download von Bildern auf einer Webseite UND deren jeweilige URLs gespeichert werden?
474
Garry
Ich weiß, dass es eine Menge Werkzeuge für den Massen-Download von Bildern von Webseiten gibt, aber ich muss etwas anders machen.
Ich baue eine Website, die Bilder aus dem Internet kuratiert.
Anstatt nur Bilder herunterzuladen, muss ich auch eine gespeicherte Datei mit allen URLs der Seiten haben, auf denen das Originalbild gefunden werden kann, damit ich auf die Originalressourcen verweisen kann.
Es gibt dieses eine Tool, dessen Namen ich fast vergessen habe. Das spart zwar den Serverpfad des Images, was ungeeignet ist, da die Images meistens auf einem CDN gehostet werden, und ich muss in der Lage sein, eine Verknüpfung herzustellen Original-Seite, kein Hotlinking ihrer CDN.
Kennen Sie eine Methode, um das zu tun?
Auf Kosten der Komplexität klingt dies so, als könnte es mit der Befehlszeile verarbeitet werden (ein Skript, das sowohl die fraglichen Daten abruft als auch die URL in einer Liste zusammen mit dem Dateinamen platziert).
Anaksunaman vor 8 Jahren
0
0 Antworten auf die Frage
Verwandte Probleme
-
3
IE unter Windows 7 speichert keine Dateien auf der Festplatte
-
3
Computer herunterfahren, wenn der Download / Upload beendet ist
-
4
Wo kann ich viele Ziffern von Pi herunterladen?
-
4
Konfigurieren Sie das Modem für Bittorrent-Downloads
-
3
Firefox: Warum ist es langsam, wenn ich einige aktive Downloads habe?
-
2
Anrufen, aber keine Seite mit wget herunterladen
-
17
Wie kann ich eine URL als Datei herunterladen?
-
19
Wie kann ich eine komplette Website herunterladen?
-
4
Warum zwingt Microsoft Benutzer, nicht standardmäßige Download- / Installationslösungen zu verwenden...
-
7
URL Sniffer / Downloader