UPDATE: Arg! Soviel zu Tests. Nur ein vollständiges Backup und tar mit seiner Standard-Block- / Datensatzgröße lief um etwa 25% langsamer. Also benutze ich wieder -b2048. Versuchen Sie -b1024 und sehen Sie, wie es geht.
Okay, hab nur ein paar Tests gemacht. Mein Rat ist, die Bandblockgröße auf 0 (variabel) zu setzen und einen Tar-Block / Datensatz Ihrer Wahl auszuwählen. Ich habe mit einer Bandblockgröße von 1M und 512K mit übereinstimmenden Tar-Datensatzgrößen getestet (-b2048 = 1M -b1024 = 512K), dann habe ich die Bandblockgröße auf 0 gesetzt und mit tar -b2048 und -b1024 getestet, und es gab keinen Unterschied . Dann führte ich erneut einen Test mit 'setblk 0' durch, jedoch mit einer Standard-Tar-Blockgröße von 512 (kein -bxxxx), mit einer Gesamtlänge von 10240 Bytes und immer noch keinen Leistungsunterschied.
Ich verwende einen Quantum LTO-5. Solange Sie wesentlich über 512 Bytes sind (der LTO-5-Standard ist meiner Meinung nach), sollten Sie in Ordnung sein und es ist unwahrscheinlich, dass Sie einen Schuhglanz erleben werden. IMO, der einzige Grund für das Festlegen der Laufwerksblockgröße (anstelle von Variablen) ist, wenn die Softwareblockgröße (Datensatzgröße bei tar) ignoriert wird.
Hinweis: Die Standardblockgröße für tar beträgt 512 Byte x 20 für eine Gesamt- "Datensatzgröße" von 10240 Byte. Übrigens, meine Tests waren alle innerhalb von 12 Sekunden abgeschlossen, was ~ 141.000.000 Bytes / Sekunde ergibt, der maximale Durchsatz des LTO-5.