Welche Sicherungsmethoden sollte ich in einem zweistufigen Sicherungsplan verwenden? (PC zu NAS in die Cloud)

442
anlag

Ich bin gerade dabei, eine für mich sinnvolle, redundante Backup-Lösung für mein Zuhause zu konfigurieren. Ich habe einen Dual-Boot-Laptop (Ubuntu und Windows) und einen Heim-NAS. Die Idee ist, in jedem Betriebssystem eine Sicherungssoftware einzurichten, die auf dem NAS gesichert wird, und dann den NAS auf einem Cloud-Speicher zu sichern.

Bei den Daten handelt es sich hauptsächlich um Dokumente und Fotos. Ich denke, die Gesamtzahl liegt zwischen 50 und 100 GB. Es werden wahrscheinlich später weitere Geräte hinzugefügt, die auf die gleiche Art und Weise wie ich es tun. Neben dem Hosten dieser Backups wird auf dem NAS auch ein größeres Repository für digitale Fotos gehostet, die auch in das Cloud-Backup aufgenommen werden sollten.

Um von hinten anzufangen, bin ich ziemlich zufrieden mit der Idee, ein Backup-Skript von einem lokalen Raspberry Pi (ich habe bereits ein paar vorhanden) auszuführen, wobei Duplizität verwendet, um relevante NAS-Verzeichnisse mit GPG-Verschlüsselung auf einem Backblaze B2-Speicher zu sichern Client-seitig - ganz nach dem gleichen Prinzip wie dieser Blogpost:

https://msol.io/blog/tech/dirt-cheap-client-encrypted-online-backups-with-raspberry-pi/

Dies würde mir clientseitige, verschlüsselte Daten und bandbreiteneffiziente Übertragungen ermöglichen, und ich hoffe, dass ein zuverlässiger Cloud-Service zu guten Kosten zur Verfügung steht. Ich würde wahrscheinlich regelmäßige vollständige Sicherungen wünschen, um übermäßig lange Sicherungsketten zu vermeiden. Ich bin nicht sicher, ob Duplizität das allein erledigt oder ob ich es in meinem Skript zulassen muss, aber ich schätze, dass ich das schaffen kann.

Wo ich unsicherer bin, wie ich es verarbeite, ist die Stufe von PC zu NAS. Ich habe mit Ubuntus eingebautem Deja Dup angefangen, erkannte aber auch, dass Duplizität als Backend verwendet wird.

Ist es sinnvoll, in beiden Schritten einer zweischichtigen Sicherungslösung so etwas wie Duplizität zu verwenden? Meine Sorge ist, dass ich, falls ich Cloud-Backups wiederherstellen muss, zweimal wiederherstellen muss, was ineffizient sein könnte, oder schlimmer noch weniger robust ist, falls eine einzelne beschädigte Datei in einer der Backup-Ketten die Dinge durcheinanderbringen würde. Ist das ein vernünftiges Anliegen?

Wenn ja, wie kann man das besser machen? Ich hatte die Idee, einfach einen wöchentlichen (oder was auch immer) rsync von Ubuntu auf den NAS zu machen, so dass der NAS einfach eine 1: 1-Kopie hat und der NAS-to-Cloud-Schritt die Klugheit der Wiederherstellbarkeit von verschiedenen Zeitpunkten beherrscht. Verschlüsselung und was auch immer.

Der Nachteil dabei scheint die Effizienz im ersten Schritt zu sein, bei der ich bei jedem Backup viele Daten kopieren müsste. Möglicherweise würde die Verwendung der Option --link-dest von rsync funktionieren, dh es wurde eine Verknüpfung zu allen vorhandenen Dateien hergestellt, anstatt sie erneut zu kopieren. Ich bin mir jedoch nicht sicher, ob dies robust ist oder sogar mit einem Backup der zweiten Stufe über Duplizität arbeitet.

Mir ist klar, dass diese Frage viel zu lang und unordentlich ist, aber ich habe einige Zeit darüber nachgedacht, wie man dies auf eine gute Art und Weise macht, und ich hatte das Gefühl, dass ich am Ende fragen musste. Wenn Sie so weit gelesen haben, danke ich Ihnen. Wenn Sie irgendwelche Weisheit zu bieten haben, danke noch mehr.

0
Keine Beleidigung, aber beim Lesen Ihres Beitrags muss ich wirklich darüber nachdenken, warum jemand so „billig“ sein müsste, dass er sich eine zu komplizierte Idee mit einem höheren Risiko eines Datenverlusts ausdenken würde. Ihr erklärtes Ziel ist es, Dokumente und Fotos zu sichern. Das geht leicht für nur 5 bis 20 Dollar pro Monat, wenn nicht weniger. Zahlreiche NAS-Geräte oder Cloud-Speicherdienste können dies für Sie erledigen. Sicherlich ist das Linux-Setup zwar etwas komplexer, aber es gibt sicherlich einen günstigen Service, der auch unter Linux funktioniert. Ich bin froh, dass Sie lernen und experimentieren, aber Sie bekommen, wofür Sie bezahlen. Appleoddity vor 6 Jahren 0
Sollte ich Ihren Kommentar dahingehend verstehen, dass ein zweistufiges Backup-Schema aufgrund der hinzugefügten Komplexität immer eine schlechte Idee ist? Oder dass ein solches Schema nur mit kommerzieller Software implementiert werden sollte? Vielleicht war mir bei meinen Prioritäten nicht klar: Ich möchte zwei Sicherungen, eine lokale und eine entfernte. Da ich bereits ein NAS besitze (älter, ist unsicher bei der integrierten Cloud-Unterstützung und ziehe Hardware-agnostische Lösungen vor), erschien die allgemeine Idee, zunächst ein Backup davon zu erstellen und dann das NAS in der Cloud zu sichern, eine konzeptionell einfache Idee. Wenn es bessere gibt, bin ich ganz Ohr. anlag vor 6 Jahren 0
Ich behaupte nicht, dass redundante Backups schlecht sind. Wenn Sie die Komplexität Ihrer Vorbereitungen nutzen, um dies zu erreichen, riskieren Sie, dass etwas schief läuft und es zu spät herausfindet. Es scheint ein Plan zu sein, um Geld zu sparen. Es gibt zahlreiche NAS-Systeme und Cloud-Backup-Lösungen, die dies sehr einfach machen. Ich benutze Google Drive alleine. Mein gesamtes Google-Laufwerk wird auf einem lokalen Computer mit einer Festplatte synchronisiert. Alle anderen Computer werden direkt mit dem Google-Laufwerk synchronisiert. Das sind zwei Sicherungen. Außerdem habe ich einen Versionsverlauf der Datei, Änderungsprotokolle und einen Instanzzugriff auf Dateien über Web- und mobile Apps. 10 $ / Monat Appleoddity vor 6 Jahren 0
Vielen Dank für Ihr Feedback. Ich denke, der Hauptzweck meiner Frage war es, diese Komplexität auf ein Minimum zu reduzieren und gleichzeitig meine Ziele zu erreichen. Geld zu sparen ist schön, aber nicht entscheidend, es geht eher darum, es richtig zu machen. Ihr Beispiel-Setup ist ordentlich und praktisch, aber nicht ganz das, was ich mir vorstelle. Ich gehe davon aus, dass Sie keine clientseitige Verschlüsselung haben, und in meinem Fall würden die NAS-reinen Daten (Image Repo) auch einen zusätzlichen Schritt hinzufügen (obwohl dies natürlich möglich ist). anlag vor 6 Jahren 0

1 Antwort auf die Frage

1
ede

Anlag,

Du hast recht. Ihr Setup ist redundant. Duplizierung packt im zweiten Schritt eine Duplizitätssicherung.

was Sie wahrscheinlich wollen, ist

  1. leicht zugängliche Sicherungen vor Ort (einfache Dateien, vorzugsweise Momentaufnahmen, damit Sie eine gerade gelöschte Datei von gestern wiederherstellen können)
  2. verschlüsselte Sicherung außerhalb des Standorts, so dass Ihre Daten vor Augen und Augen geschützt werden

. Ich würde vorschlagen

  1. Ausführen von einfachen Sicherungen (z. B. rsync) auf dem NAS (verwenden Sie btrfs für Momentaufnahmen, wenn sie über genügend Leistung verfügen, oder verwenden Sie rsync mit / --link-dest).
  2. Verwenden Sie Duplizität, um diese auf Remote zu sichern

..ede / duply.net

Vielen Dank, das hört sich nach der Richtung an, in die ich ging, in so viel weniger Worten. btrfs ist ein großartiger Vorschlag, und Netgear enthält es offenbar in ihrem ReadyNAS OS 6, aber mein NAS ist leider etwas zu alt, um dieses Betriebssystem zu unterstützen. Ich glaube, ich werde ein einfaches Backup vom PC auf den NAS mit einem nächtlichen rsync (--link-dest) als ersten Schritt implementieren. Gibt es einen Grund, gelegentlich ohne --link-dest zu laufen? Da es Hardlinks benutzt und nicht inkrementell sein sollte, denke ich nicht, aber ... anlag vor 6 Jahren 0