Wiederherstellen eines Synology-Raid 0 von Ubuntu (gesunde Laufwerke)

628
Eleganze

Ich versuche, einen Synology-Raid 0 mit 3 x 2 GB-Laufwerken erneut bereitzustellen. Soweit ich weiß, sind die Laufwerke in einwandfreiem Zustand.

Ich habe einfach nicht genug Platz, um ein vollständiges Bild davon zu machen, bevor ich fortfahre. Ich hoffe, dass erfahrene Benutzer mir helfen können. Die Daten sind sicherlich nicht das Wichtigste, das ich habe, aber natürlich wäre es toll, wenn ich sie wiederherstellen könnte.

Es tut mir leid für einen so massiven Beitrag, aber ich dachte mir, es wäre das Beste, Ihnen so viele Informationen wie möglich zu geben.

Folgendes habe ich bisher ausprobiert:

#sudo fdisk -l 

(Nur meine Raid-Laufwerke auflisten)

Platte / dev / sda: 1,8 TiB, 2000398934016 Bytes, 3907029168 Sektoren Einheiten: Sektoren von 1 * 512 = 512 Bytes Sektorgröße (logisch / physikalisch): 512 Bytes / 4096 Bytes E / A-Größe (Minimum / Optimal): 4096 Byte / 4096 Byte Disklabel-Typ: dos Festplattenkennung: 0x00098445  Startet-Sektor der Gerätestartgröße ID-Typ / dev / sda1 256 4980735 4980480 2,4G fd Linux-RAID-Autodetect / dev / sda2 4980736 9175039 4194304 2G fd-Linux-RAID-Autodetect / dev / sda3 9437184 3906824351 3897387168 1,8T fd Linux-RAID-Autodetect  Platte / dev / sdb: 1,8 TiB, 2000398934016 Bytes, 3907029168 Sektoren Einheiten: Sektoren von 1 * 512 = 512 Bytes Sektorgröße (logisch / physikalisch): 512 Bytes / 4096 Bytes E / A-Größe (Minimum / Optimal): 4096 Byte / 4096 Byte Disklabel-Typ: dos Festplattenkennung: 0x0004a6ce  Startet-Sektor der Gerätestartgröße ID-Typ / dev / sdb1 256 4980735 4980480 2,4G fd Linux-RAID-Autodetect / dev / sdb2 4980736 9175039 4194304 2G fd-Linux-RAID-Autodetect / dev / sdb3 9437184 3906824351 3897387168 1,8T fd Linux-RAID-Autodetect  Platte / dev / sdd: 1,8 TiB, 2000398934016 Bytes, 3907029168 Sektoren Einheiten: Sektoren von 1 * 512 = 512 Bytes Sektorgröße (logisch / physikalisch): 512 Bytes / 4096 Bytes E / A-Größe (Minimum / Optimal): 4096 Byte / 4096 Byte Disklabel-Typ: dos Festplattenkennung: 0x000d3273  Startet-Sektor der Gerätestartgröße ID-Typ / dev / sdd1 2048 4982527 4980480 2,4G fd Linux-RAID-Autodetect / dev / sdd2 4982528 9176831 4194304 2G fd-Linux-RAID-Autodetect / dev / sdd3 9437184 3906824351 3897387168 1,8T fd Linux-RAID-Autodetect 

Dann die Ausgabe von mdstat:

#sudo cat /proc/mdstat 
Persönlichkeiten: [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md127: inaktiv sdb3 [2] (S) sda3 [0] (S) sdd3 [1] (S) 5846077648 Blöcke Super 1.2  ungenutzte Geräte: keine 

Ergebnis der Untersuchung der Partition Nr. 3 auf jedem Laufwerk:

#sudo mdadm --examine /dev/sda3 
/ dev / sda3: Magie: a92b4efc Version: 1.2 Funktionsübersicht: 0x0 Array-UUID: a55ec236: a21e68d6: 880073e6: 0767672b Name: Rackstation: 3 Schaffungszeit: So 29 Okt 20:55:08 2017 Schlachtzugsebene: raid0 Schlachtzüge: 3  Verfügbare Dev-Größe: 3897385088 (1858.42 GiB 1995.46 GB) Datenversatz: 2048 Sektoren Super Offset: 8 Sektoren Nicht genutzter Speicherplatz: Vorher = 1968 Sektoren, danach = 32 Sektoren Zustand: sauber Geräte-UUID: 97599be0: 421d7434: 27cf35e3: 3738cb20  Aktualisierungszeit: Mi 6 Dez 10:30:37 2017 Prüfsumme: 971d4c1e - richtig Veranstaltungen: 2  Stückgröße: 64K  Geräterolle: Aktives Gerät 0 Array-Zustand: AA ('A' == aktiv, '.' == fehlt, 'R' == ersetzt) 
#sudo mdadm --examine /dev/sdb3 
/ dev / sdb3: Magie: a92b4efc Version: 1.2 Funktionsübersicht: 0x0 Array-UUID: a55ec236: a21e68d6: 880073e6: 0767672b Name: Rackstation: 3 Schaffungszeit: So 29 Okt 20:55:08 2017 Schlachtzugsebene: raid0 Schlachtzüge: 3  Verfügbare Dev-Größe: 3897385088 (1858.42 GiB 1995.46 GB) Datenversatz: 2048 Sektoren Super Offset: 8 Sektoren Nicht genutzter Speicherplatz: Vorher = 1968 Sektoren, danach = 32 Sektoren Zustand: sauber Geräte-UUID: 3d7f416b: da7acb4c: db31ee99: 2d7c160d  Aktualisierungszeit: Mi 6 Dez 10:30:37 2017 Prüfsumme: dd1e7607 - richtig Veranstaltungen: 2  Stückgröße: 64K  Geräterolle: Aktives Gerät 2 Array-Zustand: AA ('A' == aktiv, '.' == fehlt, 'R' == ersetzt)  
#sudo mdadm --examine /dev/sdd3 
/ dev / sdd3: Magie: a92b4efc Version: 1.2 Funktionsübersicht: 0x0 Array-UUID: a55ec236: a21e68d6: 880073e6: 0767672b Name: Rackstation: 3 Schaffungszeit: So 29 Okt 20:55:08 2017 Schlachtzugsebene: raid0 Schlachtzüge: 3  Verfügbare Dev-Größe: 3897385120 (1858.42 GiB 1995.46 GB) Datenversatz: 2048 Sektoren Super Offset: 8 Sektoren Nicht genutzter Speicherplatz: Vorher = 1968 Sektoren, danach = 0 Sektoren Zustand: sauber Geräte-UUID: a5b79e82: 0c39533c: 4f4adae0: 540dafdf  Aktualisierungszeit: So 29 Okt 20:55:08 2017 Prüfsumme: fe189076 - richtig Veranstaltungen: 0  Stückgröße: 64K  Geräterolle: Aktives Gerät 1 Array State: AAA ('A' == aktiv, '.' == fehlt, 'R' == ersetzt)  

mdadm meldet, dass der Überfall sauber ist. Was ist gut, denke ich?

Dann folgte ich dem Rat hier: re-mount-two-old-disk-from-raid0-setup-to-recover-data

 #sudo mount /dev/md127 /mnt/oldData mount: /mnt/oldData: can't read superblock on /dev/md127. 

Dann googelte es weiter und rannte:

#sudo mdadm -D /dev/md127 
/ dev / md127: Version: 1.2 Schlachtzugsebene: raid0 Gesamtgeräte: 3 Persistenz: Superblock ist persistent  Zustand: inaktiv  Name: Rackstation: 3 UUID: a55ec236: a21e68d6: 880073e6: 0767672b Veranstaltungen: 0  Number Major Minor RaidDevice  - 8 51 - / dev / sdd3 - 8 19 - / dev / sdb3 - 8 3 - / dev / sda3 

Kann jemand etwas davon lesen? Hilfe wird sehr geschätzt.

1

1 Antwort auf die Frage

0
Lawrence Horton

Ich wundere mich, warum diese Befehle nicht funktionieren. Vielleicht können Sie diese auch ausprobieren und sehen, ob Sie Glück haben. Stellen Sie zunächst sicher, dass Ihre NAS-Laufwerke entweder über SATA oder USB angeschlossen sind, obwohl SATA die bevorzugte Schnittstelle ist. Geben Sie nun folgende Befehle in das Terminal ein, um mdadm zu installieren und zu konfigurieren:

Ubuntu@ubuntu:~$ sudo -i root@ubuntu:~$ apt-get install mdadm 

Wählen Sie Keine Konfiguration aus, die Konfiguration ist abgeschlossen. Installieren Sie nun lvm2, indem Sie die folgenden Befehle eingeben:

root@ubuntu:~$ apt-get install lvm2 

Mounten Sie jetzt die Platte, indem Sie die folgenden Befehle eingeben:

root@ubuntu:~$ mdadm -Asf && vgchange –ay 

Ihre Laufwerke werden wahrscheinlich auf diese Weise bereitgestellt, als sich mein WD NAS für einen Wurf entschieden hatte. Wenn dies nicht der Fall ist, können Sie Ihr RAID 0-Array problemlos mit Software wie Stellar Phoenix Windows Data Recovery-Techniker oder Sysinfotools RAID Recovery-Software wiederherstellen.