Btrfs auf einem mdadm raid10 oder btrfs raid10 auf nackten Geräten?

5700
DejanLekic

Ich habe ein RAID10, das von verwaltet wird, mdadmund ich habe ein EXT4-Dateisystem darüber. Ich mag BTRFS jedoch und möchte das EXT4-Dateisystem in BTRFS konvertieren, aber ich habe über Leistung und Wartbarkeit nachgedacht. Für ein Beispiel mit BTRFS kann ich den Status nicht leicht sehen, wenn ich eine weitere Festplatte zum Array entferne / füge, wie ich es mit mdadm kann (oder vielleicht weiß ich einfach nicht wie - ich habe die BTRFS-Dokumente durchsucht und konnte diese nicht finden ).

Was ist aus Ihrer Erfahrung also die bessere Wahl?

  1. Um einfach das EXT4-Dateisystem zu konvertieren und mdadm das RAID10 verwalten zu lassen?

  2. Mdadm loswerden und BTRFS alles tun lassen?

10

2 Antworten auf die Frage

12
Glyph

Let Btrfs do everything.

For one thing, Btrfs has its own integrated mirroring code which can be smarter than madm.

Of course if a disk fails hard in a mirrored pair in an madm raid10, you can replace the bad disk and move on with your life (albeit after a distressingly complex set of shell commands). The problem is if your disk fails a bit more softly: if a few blocks just give back the wrong bits instead of giving the appropriate error codes for a bad block, then when reading the data you will randomly get bad data. Btrfs is smarter than that: it checksums every bit of data. To be honest I don't know if it's more correct to say "every BTree node" or "every block", but the point is that when it reads some data from a mirrored array, it checks the checksum before giving it back to your userland process. If the checksum doesn't match, it consults the other mirror in the array first, and if that gives the correct checksum, then it will alert you that your disk has started to silently fail.

The Btrfs wiki specifically mentions your question:

If Btrfs were to rely on device mapper or MD for mirroring, it would not be able to resolve checksum failures by checking the mirrored copy. The lower layers don't know the checksum or granularity of the filesystem blocks, and so they are not able to verify the data they return.

Finally, even without this substantial advantage, the command-line workflow for dealing with removed or added Btrfs devices is super simple. I'm not even sure I could get the degraded-mount-then-fix-your-filesystem shell commands right, but for Btrfs it's very clearly documented on the multiple devices page as:

mount -o degraded /dev/sdb /mnt btrfs device delete missing /mnt 

At this point if you have enough space on your remaining disks, you can always just btrfs rebalance and be done with it; no need to replace the mirror, as you would absolutely need to do with madm! And if you want to replace it, you can do btrfs device add first.

4
Waxhead

BTRFS ist noch experimentell und Sie können mit "interessanten" Funktionen enden, wenn etwas abstürzt. Wenn Sie wirklich btrfs haben / wollen, ist es vorerst viel sicherer, es auf einem Software-Raid auszuführen, als es direkt auszuführen. Wenn btrfs reift und in Produktion geht, ist dies möglicherweise nicht mehr der Fall.

About a year ago, I experimented with a btrfs setup in a VM. I was able to consistently lock the kernel(!) by messing with the rebalance command. Time has marched on and hopefully this has been fixed. Avery Payne vor 11 Jahren 0