Dies sollte mit iMacros relativ einfach sein . Wenn sich alle Seiten in demselben kennwortgeschützten Konto befinden, können Sie sich normalerweise über den Browser anmelden und dann das Skript ausführen. Selbst wenn sie sich nicht hinter dem gleichen Login und Passwort befinden, ist es möglich, den Login-Prozess zu automatisieren, obwohl dies eine gewisse Komplexität bedeutet.
iMacros gibt seine Ergebnisse in einem CSV-Format zurück. Wenn es für iMacros schwierig ist, das gewünschte HTML-Element auszuwählen, wähle ich oft einen größeren Teil der Seite aus und extrahiere dann die genaue Zeichenfolge, die ich mit einer Mid () - Funktion in Excel benötige. Die Standalone-Vollversion von iMacros verfügt über einige hilfreiche Funktionen, die im Firefox-Plugin nicht vorhanden sind (zumindest in der GUI). Sie können das vollständige Programm kostenlos als 30-Tage-Testversion nutzen.
Alternativ können Sie wget verwenden, um alle Seiten herunterzuladen und dann lokal damit zu arbeiten. Es kann Seiten aus einer Liste von URLs abrufen. Wget erlaubt auch das Einloggen, obwohl ich das nicht probiert habe. Sobald Sie sie lokal haben, können Sie sie mit iMacros oder sogar einem Makro bearbeiten, das Texteditor wie notepad ++ ausführt.
Ein leistungsfähigeres Werkzeug wäre Scraperwiki . Das erfordert jedoch etwas Programmiererfahrung.