MDADM-RAID 0 auf neuer Hardware wiederherstellen
1) Auf der Maschine hatte AI - MDADM RAID1 Mirroring mit 2 Laufwerken oben auf dem RAID-RAID-Laufwerk
2) Eine Spitze zerstört 1 HDD-Mobo-Netzteil Haupt-HDD mit MDADM-Konf. Mir bleibt nur 1 HDD mit Daten (ich nehme an)
Jetzt möchte ich versuchen, die Daten von der Festplatte wiederherzustellen
a) Ich habe die funktionierende Festplatte identifiziert
b) Setzen Sie es mit neuestem Debian in eine neue Hardware
c) Installiertes LVM2 und MDADM
d) Ich habe dies, dieses, dieses gelesen
e) Also habe ich diese Schritte gemacht:
e.1) mdadm -Ac partitions -m 0 /dev/md
e.2) mit mdadm --examine --scan
dieser Ausgabe ARRAY /dev/md/Mirror0 metadata=1.2 UUID=02724ecb:fc6640b7:f379f486:9abaf5df name=NasHome:Mirror0
e.3) hinzugefügt in /etc/mdadm.conf
e.4) cat /proc/mdstat
mit dieser Ausgabemd127 : inactive sdb[2](S) 976631512 blocks super 1.2
e.5) Das Array wurde gestartet mdadm --manage /dev/md127 --run
und der neue Status lautetmd127 : active (auto-read-only) raid1 sdb[2] 976631360 blocks super 1.2 [2/1] [U_]
e.6)
mdadm --examine /dev/sdb /dev/sdb: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 02724ecb:fc6640b7:f379f486:9abaf5df Name : NasHome:Mirror0 Creation Time : Fri May 6 21:18:04 2016 Raid Level : raid1 Raid Devices : 2 Avail Dev Size : 1953263024 (931.39 GiB 1000.07 GB) Array Size : 976631360 (931.39 GiB 1000.07 GB) Used Dev Size : 1953262720 (931.39 GiB 1000.07 GB) Data Offset : 262144 sectors Super Offset : 8 sectors Unused Space : before=262064 sectors, after=304 sectors State : clean Device UUID : a7d7b61d:70e1f8a9:f47728a8:5136e05a Update Time : Sat Feb 24 10:06:27 2018 Checksum : ed360028 - correct Events : 40519 Device Role : Active device 0 Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
e.7)
mdadm --detail /dev/md127 /dev/md127: Version : 1.2 Creation Time : Fri May 6 21:18:04 2016 Raid Level : raid1 Array Size : 976631360 (931.39 GiB 1000.07 GB) Used Dev Size : 976631360 (931.39 GiB 1000.07 GB) Raid Devices : 2 Total Devices : 1 Persistence : Superblock is persistent Update Time : Sat Feb 24 10:06:27 2018 State : clean, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 Name : NasHome:Mirror0 UUID : 02724ecb:fc6640b7:f379f486:9abaf5df Events : 40519 Number Major Minor RaidDevice State 2 8 16 0 active sync /dev/sdb - 0 0 1 removed
Jetzt habe ich das Array (von einer Platte [2/1] [U_]
) aktiv wenn ich es neu startemd127 : inactive sdb[2](S) 976631512 blocks super 1.2
Wie kann ich es aktivieren und später eine weitere Festplatte hinzufügen, um das Array wiederherzustellen
Und es ist sicher / möglich, das LVM in diesem Zustand zu lesen.
0 Antworten auf die Frage
Verwandte Probleme
-
9
Was ist der Unterschied zwischen den Befehlen "su -s" und "sudo -s"?
-
4
Gutes freies Ubuntu Server-VMWare-Image benötigt
-
4
Was sind die Unterschiede zwischen den großen Linux-Distributionen? Werde ich es merken
-
2
Begrenzung der CPU-Auslastung für Flash in Firefox?
-
2
Wie kann ich mein Mikrofon unter Debian GNOME zum Laufen bringen?
-
2
Conky-Setups - Beispiele / Ideen?
-
3
Was sind die Unterschiede zwischen Linux Window Managern?
-
2
ThunderBird / Lichtsynchronisation mit SE k770i
-
4
Linux-Dateisystem
-
6
Vollbild-Flash langsam in KDE 4