Ich habe sshfs auf Ubuntu-Server und ein einfaches rsync-Skript über cron verwendet. Jeder Host behält seine eigene Autonomie (auch wenn ich in meiner Konfiguration über drei Hosts über Root-Zugriff verfügt) und wie oft ich über Knoten hinweg replizieren kann und auf welche Knoten auch vollständig kontrollierbar ist. Die Speichermenge kann über eine Partition oder ein Kontingent gesteuert werden. Ich habe mich für die Partition entschieden, einfach weil ich alle 3 Hosts kontrolliere. Ein Nachteil ist die mangelnde Steuerung der Replikationsfrequenz (Synchronisierung). Wenn ein Host häufig synchronisiert, kann er die Bandbreite zu stark nutzen, insbesondere wenn Snapshots im gesamten WAN verwendet werden. Es ist notwendig, gut mit anderen zu spielen und kbps-Grenzwerte für die rsync-Befehle zu verwenden.
DFS für mehrere kleine Cluster über WAN
Meine Freunde und ich haben alle TBs auf unseren Systemen. Keiner von uns verfügt über vollständige Sicherungen, die jedoch geografisch verteilt sind, da bei dieser Datenmenge Lösungen wie Dropbox, S3, et al. sind für uns unerschwinglich. Jeder von uns hat jedoch einen übermäßigen lokalen Speicher. TBs werden in der Tat ungenutzt.
Wir fingen an zu denken: Wenn wir unsere Hosts in irgendeiner Form eines verteilten Dateisystems vernetzen könnten, könnten wir jeweils geografisch verteilte Sicherungen unserer kompletten Datensätze gewinnen und gleichzeitig die Speicherkapazität, die wir haben, besser auslasten. Die perfekte Lösung ... denken wir.
- Wir sind mindestens drei von uns. Sicherlich 6 oder mehr, wenn das Projekt Früchte trägt.
- Jeder von uns hat 1-2 TB Daten und mindestens so viel übrig.
- Wir sind alle über WAN verteilt.
- Wir benötigen die Fähigkeit eines Hosts, den Cloud-Service willkürlich zu betreten und zu verlassen.
- Echte (ish) Zeitsynchronisation. Ansonsten würden wir uns nur einmal in der Woche bei Bier treffen und um einen Stapel externer Festplatten tauschen.
- F / OSS ist erforderlich, aber wir haben reichlich Ellenbogenfett.
- Wenn wir in diesem Prozess eine verteilte Computing-Plattform einsetzen / lernen / nutzen können, umso besser.
Wir haben darüber nachgedacht, ob Sie eine Dropbox-artige Benutzeroberfläche auf OpenStack oder Hadoop erstellen könnten, aber ich würde gerne wissen, ob es andere Alternativen gibt, die wir ignorieren. Vielleicht gibt es für unseren Fall eine noch einfachere Lösung? Ist so etwas überhaupt möglich, angesichts der geringen Anzahl von Knoten pro Cluster?
NB: Natürlich dauert die anfängliche Synchronisierung / Abgleichung / Übertragung / etc zumindest Tage, aber das ist akzeptabel.
2 Antworten auf die Frage
Es ist nicht FOSS, aber dafür ist Crashplan eine ziemlich gute Option. Einfach einzurichten und auszuführen, aber 3, 4 und 5 sind perfekt. Das Einrichten ist ganz einfach. Installieren Sie den Client, legen Sie einen nutzbaren Speicherplatz fest und fügen Sie Personen hinzu, die diesen Speicherplatz verwenden möchten.
Verwandte Probleme
-
9
Was ist der Unterschied zwischen den Befehlen "su -s" und "sudo -s"?
-
4
Gutes freies Ubuntu Server-VMWare-Image benötigt
-
4
Was sind die Unterschiede zwischen den großen Linux-Distributionen? Werde ich es merken
-
2
Begrenzung der CPU-Auslastung für Flash in Firefox?
-
2
Wie kann ich mein Mikrofon unter Debian GNOME zum Laufen bringen?
-
2
Conky-Setups - Beispiele / Ideen?
-
3
Was sind die Unterschiede zwischen Linux Window Managern?
-
2
ThunderBird / Lichtsynchronisation mit SE k770i
-
4
Linux-Dateisystem
-
6
Vollbild-Flash langsam in KDE 4