Ist Software RAID5 oder zraid1 unter CentOS 7 Linux von Natur aus fest auf der Laufwerkshardware?

458
J Collins

Bei der Verwendung von extern montierten Festplatten-Arrays unter CentOS 7 gab es immer wieder Probleme, unabhängig davon, ob sie über eine USB3-Verbindung oder über eSATA angeschlossen wurden, wobei das Datenformat die einzelne Redundanz in einem Array mit 5 Laufwerken verwendete. Bei den gleichen Laufwerken und externen Gehäusen gab es in der Stripe- oder Mirror-Konfiguration noch nie ein Problem.

Klarstellung für @ Attie: Damit meine ich, dass ich auf fünf identischen Laufwerken in einem identischen Gehäuse, das an eine identische Schnittstellenkarte im Server angeschlossen ist, einen kontinuierlich arbeitenden raid0-Stripe hatte. Dies entsprach einem 5-GB-Speicherpool, für den bisher keine Offline-Ereignisse oder Beschädigungen aufgetreten sind. Das redundante Array ist 4 GB mit 1 GB Parität. Der Spiegel bestand aus zwei Laufwerken mit einem Hot-Spare, das zuerst RAID1 und dann einen ZFS-Spiegel verwendete.

Ich kann das Stripe-Array mit voller Geschwindigkeit ohne Probleme ausführen. Ich kann den ZFS-Pool aus dem redundanten Array exportieren und beispielsweise badblocksauf jedem Laufwerk in diesem Array gleichzeitig ausführen und kein Problem erkennen.

Das Symptom scheint zu sein, dass alle Laufwerke gleichzeitig ausfallen und der Array Controller (md oder zfs) der Meinung ist, dass ein katastrophaler Laufwerksausfall vorliegt und der nicht fertig wird.

Der gemeinsame Nenner ist das Datenformat, aber das Symptom scheint nicht dem Verschleiß des Laufwerks zu entsprechen. Das Symptom schlägt stattdessen Verbindungsabbrüche von der Laufwerksbox zum Server vor.

Ich habe einige Vorschläge für Laufwerke mit einem RAID-Limit gesehen. Ich weiß jedoch nicht, wie ein Laufwerk weiß, dass es sich in einem RAID befindet und was sich daran ändert. Ich habe auch in Foren einige Erwähnungen von "Ah, ich sehe Sie verwenden WD Reds" verwendet, konnte es jedoch hier nicht wieder als Referenz finden.

Ist die Art und Weise, wie RAID5 und zraid1 Festplatten betreiben, etwas sehr intensiv, bis zu dem Punkt, an dem die Einzelkabel-Verbindung einen Hard-Reset ausführen würde oder vorübergehend unterbrochen wird? Gibt es eine Problemumgehung für diesen Zustand?

  • Laufwerksspezifikation: 1 TB WD Red WD10EFRX SATA 3.5
  • eSATA Drive Box-Multiplexer-Chip: SiI 3726
  • eSATA Server-Hostchip: SiI 3132
  • USB3-Laufwerksbox: ICY BOX IB-3810U3
    • Multiplexer-Chip: ASMedia ASM1074L
  • Server-Motherboard USB3-Host: Gigabyte GA-B85-HD3 SKT 1150

Zugehörige Fragen: Extern angeschlossener ZFS-Pool legt auf, keine Fehler auf Laufwerken

0

1 Antwort auf die Frage

0
Attie

Ich habe Ihre anderen Fragen zu diesem Gehäuse gesehen ... Dies ist vielleicht nicht ganz "Antwort" -Standard, aber zu viel für einen Kommentar.

Können Sie bitte Ihre Anmerkungen erläutern:

  • Haben Sie einen 5x-Festplattenstreifen verwendet? (was war die streifengröße?)
  • Wie viele Festplatten waren im Spiegel enthalten?
  • Haben Sie ein RAID10-Setup versucht?

Wenn Sie einfach 5x-Festplatten in das Gehäuse einlegen und versuchen, gleichzeitig darauf zuzugreifen, sehen Sie ähnliche Probleme?

Versuchen Sie beispielsweise Folgendes (passen Sie gegebenenfalls an):

for disk in /dev/sd; do dd if=$ of=/dev/null bs=512 count=4G iflag=count_bytes & done wait 

Dadurch wird gleichzeitig auf alle 5x-Festplatten mit 512-Byte-Blöcken zugegriffen, wodurch die ersten 4 GB gelesen werden.

Wie wäre es, auf die einzelnen Platten zu schreiben?

Haben Sie die Informationen gemäß Ihrer Anfrage aktualisiert, weitere Informationsanfragen sind willkommen. J Collins vor 6 Jahren 0