Ubuntu Server 14.04 - Mit mdadm erstelltes RAID5 wird nach dem Neustart nicht mehr angezeigt
13619
user318354
Dies ist meine erste Frage zum Superuser. Wenn ich vergessen habe, etwas zu erwähnen, fragen Sie bitte.
Ich versuche einen Heimserver einzurichten, der als Dateiserver und Medienserver verwendet wird. Ich habe Ubuntu Server 14.04 installiert und versuche jetzt, einen Raid5 einzurichten, der aus insgesamt 5 Festplatten besteht, und zwar mit mdadm. Nachdem der Raid erstellt wurde, kann ich ihn verwenden und kann auch von anderen PCs auf den Raid zugreifen. Nach dem Neustart des Servers wird der Raid nicht mehr angezeigt. Ich konnte den Überfall auch nicht zusammenstellen.
Nachdem das RAID abgeschlossen ist ( watch cat /proc/mdstat), werden die RAID-Konfigurationen gespeichert
mdadm --detail --scan >> /etc/mdadm/mdadm.conf
Dann habe ich einige Teile des Eintrags in der mdadm.conf entfernt. Die resultierende Datei sieht folgendermaßen aus:
# mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers #DEVICE partitions # auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This file was auto-generated on Fri, 14 Mar 2014 23:38:10 +0100 # by mkconf $Id$ ARRAY /dev/md0 UUID=b73a8b66:0681239e:2c1dd406:4907f892
Eine Überprüfung, ob das RAID funktioniert ( mdadm --detail /dev/md0), gibt Folgendes zurück:
/dev/md0: Version : 1.2 Creation Time : Sat Apr 19 15:49:03 2014 Raid Level : raid5 Array Size : 7813531648 (7451.56 GiB 8001.06 GB) Used Dev Size : 1953382912 (1862.89 GiB 2000.26 GB) Raid Devices : 5 Total Devices : 5 Persistence : Superblock is persistent Update Time : Sat Apr 19 22:13:37 2014 State : clean Active Devices : 5 Working Devices : 5 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Name : roembelHomeserver:0 (local to host roembelHomeserver) UUID : c29ca6ea:951be1e7:ee0911e9:32b215c8 Events : 67 Number Major Minor RaidDevice State 0 8 0 0 active sync /dev/sda 1 8 32 1 active sync /dev/sdc 2 8 48 2 active sync /dev/sdd 3 8 64 3 active sync /dev/sde 5 8 80 4 active sync /dev/sdf
Soweit ich das beurteilen kann, sieht das alles gut aus. In einem nächsten Schritt habe ich das Dateisystem erstellt:
mke2fs -t ext4 /dev/md0
Daraus ergibt sich folgende Ausgabe:
mke2fs 1.42.8 (20-Jun-2013) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) Stride=128 blocks, Stripe width=512 blocks 244174848 inodes, 1953382912 blocks 97669145 blocks (5.00%) reserved for the super user First data block=0 Maximum filesystem blocks=4294967296 59613 block groups 32768 blocks per group, 32768 fragments per group 4096 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 102400000, 214990848, 512000000, 550731776, 644972544, 1934917632 Allocating group tables: done Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done
Dann wechselte ich zu fstab, indem ich am Ende der Datei den folgenden Eintrag hinzufügte:
Nach dem Mounten des RAID ( mount -a) konnte ich es dann verwenden, Dateien erstellen, von anderen PCs darauf zugreifen ...
Nun kommt das Problem: Nach dem Neustart des Servers ( reboot now) existiert das RAID nicht mehr, dh - Nein / dev / md0 - empty / proc / mdstat (neben den Personalities) - df -h zeigt das Raid nicht an - mdadm - montieren --scan macht nichts
Hat jemand irgendwelche Vorschläge? Habe ich etwas falsch gemacht?
Was ist die Ausgabe von "mdadm --examine --scan" nach dem Neustart?
Tim Haegele vor 10 Jahren
0
Klingt, als hätten Sie einen Schritt vergessen: Initramfs soll das Array beim Booten laden. Alle Ihre Schritte waren korrekt und in chronologischer Reihenfolge, aber es scheint, als hätten Sie diesen letzten Schritt verpasst. Angesichts der Tatsache, dass ich nicht weiß, wie der aktuelle Status Ihres Servers ist, sollten Sie Folgendes versuchen:
Booten und tippen
mdadm --detail --scan
Siehst du etwas? Wenn ja, ist Ihr Array vorhanden und sollte funktionieren (dh eine Lösung unterhalb von prolly wird nicht helfen). Ich vermute, wenn Sie einen Neustart durchführen, wird Ihr RAID-Laufwerk überhaupt nicht angezeigt. Wenn das stimmt,
Stellen Sie sicher, dass der MDADM-Dämon ausgeführt wird ps aux | grep mdadm
Dies zeigt Ihnen, ob MDADM-Prozesse ausgeführt werden (starten Sie MDADM, wenn Sie kein Ergebnis sehen)
Stellen Sie sicher, dass das Array eingehängt ist mount -a
Aktualisieren Sie initramfs update-initramfs -u
Stellen Sie sicher, dass MDADM keine Synchronisierung oder Neuerstellung ausführt watch cat /proc/mdstat
Wenn etwas verarbeitet wird, lassen Sie es erst fertig sein, damit Sie Ihr Array nicht vermasseln
Starten Sie neu und testen Sie
0
Sheldon Ross
Das Problem auf meinem Computer wurde gelöst, indem Partitionen statt Rohlaufwerke verwendet wurden. Also statt
Stellen Sie sicher, dass Sie das Raid-Flag (ich habe gparted verwendet) auf jeder Partition setzen. Nach meinem Verständnis kann der mdadm-Dämon die Partitionen sehen und das Array beim Booten neu initialisieren.
0
antipant
My RAID disk also didn't mount after reboot. However, I noticed from the dmesg that after the reboot the /dev/md0 had been named as /deb/md127. I fixed the fstab accordingly, which fixed the problem.
-1
user185425
Der mdadm kann nach dem Neustart mit mdadm --assemble --verbose / dev / md0 zusammengestellt werden. Ich denke, in den frühen Stadien der Bootsequenz ist etwas kaputt.