Torrent vs. Wget - Limit-Rate vs. Curl-Limit-Rate
Ich habe ein paar riesige Dateien in einer weit entfernten Galaxie. Ich muss diese herunterladen, und es wird wahrscheinlich einige Tage dauern. Ich möchte zwar sicherstellen, dass alle Daten sicher und einwandfrei heruntergeladen werden, ohne Kompromisse, aber ich muss auch sicherstellen, dass ich nicht die gesamte Bandbreite beanspruche, da andere Benutzer möglicherweise auf diesen Computer remote zugreifen müssen.
Ich habe zwei Alternativen methinks: wget --limit-rate=amount
/ curl --limit-rate <speed>
oder ein cli Torrent - Client rtorrent
, transmission
oder etwas ähnliches.
Ich bin ein Noob und würde gerne wissen, was die Vorteile des einen und des anderen wären. Gibt es noch andere Möglichkeiten, um diese Monsterdateien richtig herunterzuladen?
0 Antworten auf die Frage
Verwandte Probleme
-
2
Anrufen, aber keine Seite mit wget herunterladen
-
1
wget und cookies.txt - domain.tld vs. .domain.tld
-
17
So laden Sie Dateien von der Befehlszeile in Windows herunter, z. B. wget oder curl
-
15
So ermitteln Sie die tatsächliche Download-URL auf Download-Websites, die Weiterleitungen verwenden
-
2
Batch-Downloadseiten aus einem Wiki ohne spezielle Seiten
-
4
Wie kann ich die Bilder einer öffentlichen Website mit wget abrufen?
-
1
Erzwinge, dass eine leere Datei heruntergeladen wird
-
3
Rekursiver Download (`wget -r`) für Firefox?
-
1
Wget verwenden
-
3
Wie kann ich eine Liste von Dateien von einem Dateiserver herunterladen?