Ubuntu Server 14.04 - Mit mdadm erstelltes RAID5 wird nach dem Neustart nicht mehr angezeigt

13619
user318354

Dies ist meine erste Frage zum Superuser. Wenn ich vergessen habe, etwas zu erwähnen, fragen Sie bitte.

Ich versuche einen Heimserver einzurichten, der als Dateiserver und Medienserver verwendet wird. Ich habe Ubuntu Server 14.04 installiert und versuche jetzt, einen Raid5 einzurichten, der aus insgesamt 5 Festplatten besteht, und zwar mit mdadm. Nachdem der Raid erstellt wurde, kann ich ihn verwenden und kann auch von anderen PCs auf den Raid zugreifen. Nach dem Neustart des Servers wird der Raid nicht mehr angezeigt. Ich konnte den Überfall auch nicht zusammenstellen.

Ich habe folgende Schritte gemacht:

Erstellen Sie das RAID

mdadm --create --verbose /dev/md0 --level=5 --raid-devices=5 /dev/sda /dev/sdc /dev/sdd /dev/sde /dev/sdf 

Nachdem das RAID abgeschlossen ist ( watch cat /proc/mdstat), werden die RAID-Konfigurationen gespeichert

mdadm --detail --scan >> /etc/mdadm/mdadm.conf 

Dann habe ich einige Teile des Eintrags in der mdadm.conf entfernt. Die resultierende Datei sieht folgendermaßen aus:

# mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. #  # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers #DEVICE partitions  # auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes  # automatically tag new arrays as belonging to the local system HOMEHOST <system>  # instruct the monitoring daemon where to send mail alerts MAILADDR root  # definitions of existing MD arrays  # This file was auto-generated on Fri, 14 Mar 2014 23:38:10 +0100 # by mkconf $Id$ ARRAY /dev/md0 UUID=b73a8b66:0681239e:2c1dd406:4907f892 

Eine Überprüfung, ob das RAID funktioniert ( mdadm --detail /dev/md0), gibt Folgendes zurück:

/dev/md0: Version : 1.2 Creation Time : Sat Apr 19 15:49:03 2014 Raid Level : raid5 Array Size : 7813531648 (7451.56 GiB 8001.06 GB) Used Dev Size : 1953382912 (1862.89 GiB 2000.26 GB) Raid Devices : 5 Total Devices : 5 Persistence : Superblock is persistent  Update Time : Sat Apr 19 22:13:37 2014 State : clean Active Devices : 5 Working Devices : 5 Failed Devices : 0 Spare Devices : 0  Layout : left-symmetric Chunk Size : 512K  Name : roembelHomeserver:0 (local to host roembelHomeserver) UUID : c29ca6ea:951be1e7:ee0911e9:32b215c8 Events : 67  Number Major Minor RaidDevice State 0 8 0 0 active sync /dev/sda 1 8 32 1 active sync /dev/sdc 2 8 48 2 active sync /dev/sdd 3 8 64 3 active sync /dev/sde 5 8 80 4 active sync /dev/sdf 

Soweit ich das beurteilen kann, sieht das alles gut aus. In einem nächsten Schritt habe ich das Dateisystem erstellt:

mke2fs -t ext4 /dev/md0 

Daraus ergibt sich folgende Ausgabe:

mke2fs 1.42.8 (20-Jun-2013) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) Stride=128 blocks, Stripe width=512 blocks 244174848 inodes, 1953382912 blocks 97669145 blocks (5.00%) reserved for the super user First data block=0 Maximum filesystem blocks=4294967296 59613 block groups 32768 blocks per group, 32768 fragments per group 4096 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 102400000, 214990848, 512000000, 550731776, 644972544, 1934917632  Allocating group tables: done Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done 

Dann wechselte ich zu fstab, indem ich am Ende der Datei den folgenden Eintrag hinzufügte:

/dev/md0 /data ext4 defaults,nobootwait,no fail 0 2 

Nach dem Mounten des RAID ( mount -a) konnte ich es dann verwenden, Dateien erstellen, von anderen PCs darauf zugreifen ...

Nun kommt das Problem:
Nach dem Neustart des Servers ( reboot now) existiert das RAID nicht mehr, dh
- Nein / dev / md0
- empty / proc / mdstat (neben den Personalities)
- df -h zeigt das Raid nicht an
- mdadm - montieren --scan macht nichts

Hat jemand irgendwelche Vorschläge? Habe ich etwas falsch gemacht?

5
Was ist die Ausgabe von "mdadm --examine --scan" nach dem Neustart? Tim Haegele vor 10 Jahren 0

4 Antworten auf die Frage

2
MrPotatoHead

Klingt, als hätten Sie einen Schritt vergessen: Initramfs soll das Array beim Booten laden. Alle Ihre Schritte waren korrekt und in chronologischer Reihenfolge, aber es scheint, als hätten Sie diesen letzten Schritt verpasst. Angesichts der Tatsache, dass ich nicht weiß, wie der aktuelle Status Ihres Servers ist, sollten Sie Folgendes versuchen:

Booten und tippen

mdadm --detail --scan 

Siehst du etwas? Wenn ja, ist Ihr Array vorhanden und sollte funktionieren (dh eine Lösung unterhalb von prolly wird nicht helfen). Ich vermute, wenn Sie einen Neustart durchführen, wird Ihr RAID-Laufwerk überhaupt nicht angezeigt. Wenn das stimmt,

Stellen Sie sicher, dass der MDADM-Dämon ausgeführt wird ps aux | grep mdadm

Dies zeigt Ihnen, ob MDADM-Prozesse ausgeführt werden (starten Sie MDADM, wenn Sie kein Ergebnis sehen)

  1. Stellen Sie sicher, dass das Array eingehängt ist mount -a

  2. Aktualisieren Sie initramfs update-initramfs -u

  3. Stellen Sie sicher, dass MDADM keine Synchronisierung oder Neuerstellung ausführt watch cat /proc/mdstat

Wenn etwas verarbeitet wird, lassen Sie es erst fertig sein, damit Sie Ihr Array nicht vermasseln

Starten Sie neu und testen Sie

0
Sheldon Ross

Das Problem auf meinem Computer wurde gelöst, indem Partitionen statt Rohlaufwerke verwendet wurden. Also statt

 mdadm --create --verbose /dev/md0 --level=5 --raid-devices=5 /dev/sda /dev/sdc /dev/sdd /dev/sde /dev/sdf 

es wäre

mdadm --create --verbose /dev/md0 --level=5 --raid-devices=5 /dev/sda1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 

Stellen Sie sicher, dass Sie das Raid-Flag (ich habe gparted verwendet) auf jeder Partition setzen. Nach meinem Verständnis kann der mdadm-Dämon die Partitionen sehen und das Array beim Booten neu initialisieren.

0
antipant

My RAID disk also didn't mount after reboot. However, I noticed from the dmesg that after the reboot the /dev/md0 had been named as /deb/md127. I fixed the fstab accordingly, which fixed the problem.

-1
user185425

Der mdadm kann nach dem Neustart mit mdadm --assemble --verbose / dev / md0 zusammengestellt werden. Ich denke, in den frühen Stadien der Bootsequenz ist etwas kaputt.