Nach dem Neustart "erscheinen" in meinem Array "RAID 1" Partitionen, und die Partitionen im Array haben ihren Namen geändert

814
Michael

Ich verschiebe meine Ubuntu-Installation auf lvm über Raid 1. Ich habe die Arrays zunächst nur mit 1 Festplatte erstellt, und ich habe vor, die zweite Festplatte später hinzuzufügen. Ich habe die Dateien verschoben und das System auf der neuen Festplatte erfolgreich hochgefahren, aber die Arrays und Paritionen schienen ihren Namen geändert zu haben. Anfangs partitionierte ich die Platte wie folgt:

Device Boot Start End Blocks Id System /dev/sda1 * 1 20 153600 fd Linux raid autodetect /dev/sda2 20 243202 1953359960 fd Linux raid autodetect 

Ich erstellte dann zwei degradierte Schlachtzugsfelder, die diesen Partitionen entsprechen, md0für /bootund md1für lvm und alles andere darauf. Nach der Installation von grub und dem Booten von der neuen Festplatte scheint alles zu funktionieren, außer dass seltsame Dinge im Gange sind. / dev / md1 hat Partitionen, obwohl ich alles was ich getan habe pvcreate /dev/md1:

Device Boot Start End Blocks Id System /dev/md1p1 * 257 38656 153600 fd Linux raid autodetect /dev/md1p2 38657 488378646 1953359960 fd Linux raid autodetect 

Zusätzlich /proc/mdstatzeigt (ich habe bereits die zweite Platte hinzugefügt):

md0 : active raid1 sdc1[1] md1p1[0] 153536 blocks [2/2] [UU]  md1 : active raid1 sdc2[2] sda[0] 1953359872 blocks [2/1] [U_] 

Wo haben md1p1kommen, und warum nicht /proc/mdstatzeigen, sda1und sdc1, und, sda2und sdc2?

1

1 Antwort auf die Frage

2
Lee G

A late reply, but hey:

Unfortunately you didn't show the relevant parts, for example, which units your fdisk output shows (sectors? cylinders?)

Nonetheless it looks like you got bitten by the bug of the 0.90 meta data block:

0, 0.90 

Use the original 0.90 format superblock. This format limits arrays to 28 component devices and limits component devices of levels 1 and greater to 2 terabytes. It is also possible for there to be confusion about whether the superblock applies to a whole device or just the last partition, if that partition starts on a 64K boundary.

That means if you have a 0.90 meta data block on the last partition, and it starts on a 64k boundary, mdadm will assume the whole disk belongs to the raid. What you're seeing is the partition table of /dev/sda within the RAID. Of course this will give you massive corruption if you try to access anything within that RAID.

Upgrade ASAP (I can speak out of experience).