Trotz der Durchführbarkeit des zugrunde liegenden Dateisystems sollten Sie NIEMALS so viele Dateien in einem Verzeichnis speichern. Wenn Sie nach dem Inhalt dieses Verzeichnisses suchen, werden Sie schnell feststellen, dass es eine sehr große Verzögerung gibt, während das Betriebssystem versucht, die Dateiliste zu erstellen. Das System wird dadurch erheblich belastet.
Die meisten Tools, die jegliche Art von "Web-Archivierung" durchführen, bauen normalerweise eine Verzeichnisstruktur auf, die dem Layout der Website ähnelt. Nahezu alle Websites stützen sich nicht alle auf das Stammverzeichnis, dh mydomain.com/document-1 ... sie verfügen über etwas Logistik, die alles in mehrere Pfade unterteilt (aus verschiedenen Gründen). dh Bilder gehen in mydomain.com/images und alles über Goldfisch in mydomain.com/goldfish/ etc ...
Es gibt verschiedene Tools, die diese Verzeichnisstruktur für Sie erstellen können. sogar wget bietet Optionen zum Herunterladen einer gesamten Site. Ich persönlich habe in der Vergangenheit " httrack " verwendet, und es hat ganz gut funktioniert. Wget bietet außerdem Befehlszeilenoptionen zum Herunterladen einer gesamten Site. Schauen Sie sich die Option -r (rekursiv) an. Stellen Sie einfach sicher, dass Sie Ihre Domain-Liste einrichten, damit Sie Links nicht unendlich über mehrere Sites herunterladen. Lesen Sie am besten die Wget-Man-Seite .