Torrent vs. Wget - Limit-Rate vs. Curl-Limit-Rate

425
Lefty G Balogh

Ich habe ein paar riesige Dateien in einer weit entfernten Galaxie. Ich muss diese herunterladen, und es wird wahrscheinlich einige Tage dauern. Ich möchte zwar sicherstellen, dass alle Daten sicher und einwandfrei heruntergeladen werden, ohne Kompromisse, aber ich muss auch sicherstellen, dass ich nicht die gesamte Bandbreite beanspruche, da andere Benutzer möglicherweise auf diesen Computer remote zugreifen müssen.

Ich habe zwei Alternativen methinks: wget --limit-rate=amount/ curl --limit-rate <speed>oder ein cli Torrent - Client rtorrent, transmissionoder etwas ähnliches.

Ich bin ein Noob und würde gerne wissen, was die Vorteile des einen und des anderen wären. Gibt es noch andere Möglichkeiten, um diese Monsterdateien richtig herunterzuladen?

0
Sind die Monsterdateien komprimiert? Alex vor 7 Jahren 0
Sie sind in der Tat. Targz Methinks. Lefty G Balogh vor 7 Jahren 0
Sie könnten versuchen, rsync zu verwenden: `rsync -chavzP --bwlimit = KBPS user@remote.host: / path / to / copy / path / to / local / storage` Wenn Sie SSH-Zugriff auf den Server haben, der Ihre Dateien hostet. Alex vor 7 Jahren 0
Rsync verfügt über eine "Resume" -Option, falls der Download angehalten wird. Lesen Sie hier mehr: http://unix.stackexchange.com/q/48298 Alex vor 7 Jahren 0

0 Antworten auf die Frage