Zuverlässig? Keine Chance.
Svn verwendet ähnliche Techniken, diff
um die Größe einzelner Commits zu reduzieren. Dateien werden effektiv zu einer "Basis" -Datei komprimiert und die Additionen und Subtraktionen dieser Datei werden komprimiert. Dies funktioniert anscheinend sogar für Binärdateien
Das Problem ist jedoch, dass Sie nicht alle dieser Zwischen-Blobs herunterziehen. Im Verlauf mehrerer Revisionen kann der Speicherplatz, der zum Ermitteln des Unterschieds zwischen den Revisionen verwendet wird, einige Male größer sein als die Datei selbst.
Sie ziehen auch keine gelöschten Dateien herunter. Wenn Sie mit besonders großen Dateien arbeiten, die regelmäßig gelöscht werden, wird diese gelöschte Datei bis zum Ende der Zeit auf dem Server gespeichert, aber niemals auf Ihrer Festplatte gesehen. Dadurch würde der Server im Vergleich zu Ihrer Kopie eine größere Datenmenge haben.
Wenn Sie häufig externe Geräte verwenden, um große Projekte miteinander zu verknüpfen, könnten Sie mehrmals mehr Daten auschecken, als wenn Sie nur die einzelnen Projekte ausgecheckt hätten. Tags nehmen auch fast keinen Platz auf dem Server ein (es sei denn, Sie bearbeiten darunterliegende Dateien), sodass das Auschecken nicht dem auf dem Server belegten Speicherplatz entspricht.
Die einzige Schlussfolgerung, die Sie wirklich machen können, ist, dass der Server bei gegebenen Dateideltas, Protokollen und gelöschten Dateien und solange Sie Externals und Tags / Verzweigungen ausschließen, wahrscheinlich mehr Daten als Ihre lokale Kopie enthält. Die Dateikomprimierung kann dies jedoch ebenfalls beeinflussen.