Wie kann ein Bulk-Download von Bildern auf einer Webseite UND deren jeweilige URLs gespeichert werden?

474
Garry

Ich weiß, dass es eine Menge Werkzeuge für den Massen-Download von Bildern von Webseiten gibt, aber ich muss etwas anders machen.

Ich baue eine Website, die Bilder aus dem Internet kuratiert.

Anstatt nur Bilder herunterzuladen, muss ich auch eine gespeicherte Datei mit allen URLs der Seiten haben, auf denen das Originalbild gefunden werden kann, damit ich auf die Originalressourcen verweisen kann.

Es gibt dieses eine Tool, dessen Namen ich fast vergessen habe. Das spart zwar den Serverpfad des Images, was ungeeignet ist, da die Images meistens auf einem CDN gehostet werden, und ich muss in der Lage sein, eine Verknüpfung herzustellen Original-Seite, kein Hotlinking ihrer CDN.

Kennen Sie eine Methode, um das zu tun?

1
Auf Kosten der Komplexität klingt dies so, als könnte es mit der Befehlszeile verarbeitet werden (ein Skript, das sowohl die fraglichen Daten abruft als auch die URL in einer Liste zusammen mit dem Dateinamen platziert). Anaksunaman vor 8 Jahren 0

0 Antworten auf die Frage