HowTo: Linux el disco duro defectuoso en el software RAID reparan


Instrucciones al cambio de un disco duro defectuoso en un software RAIDController bajo Linux

RAIDs deben ser protegidos una cosa fantástica alrededor de sí contra suspensiones totales en Festplattencrashes, mientras una placa en la otra es reflejada. Bajo Linux esto debe ser arreglado con pocos gastos posiblemente un software Raid sin necesitar a un controller RAID. Si el disco duro un de cae el disco duro dos toma por lo general. Este Raid1 el sistema entra en acción en los máximos servidores de Web dedizierten . Variantes diferentes pueden ser configuradas naturalmente por RAIDs, sin embargo esto haría saltar este artículo.
Quisiera llegar aquí a ello que debe ser hecho básicamente si una vez un disco duro precipita y problemas con el software RAID y respectivamente los discos duros se producen.

El software Raid Estatus revisan

Con la orden siguiente el estatus del software Raids bajo Linux es revisado:
cat /proc/mdstat
Gasto de RAID1 "sano". La representación [UU] indica el estatus afortunado de los ambos Devices disponibles:
Personalities : [raid1]
md3 : active raid1 sda4[0] sdb4[1]
1847608639 blocks super 1.2 [2/2] [UU]
md2 : active raid1 sda3[0] sdb3[1]
1073740664 blocks super 1.2 [2/2] [UU]
md1 : active raid1 sda2[0] sdb2[1]
524276 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sda1[0] sdb1[1]
8387572 blocks super 1.2 [2/2] [UU]
unused devices: <none>

Raid defectuoso el estatus en un o varias particiones

Aquí un camino al análisis de los problemas para cometer ningunos errores:
cat /proc/mdstat
Gasto:
Personalities : [raid1]
md3 : active raid1 sda4[0] sdb4[1](F)
1843414335 blocks super 1.2 [2/1] [U_]
md2 : active raid1 sda3[0] sdb3[1](F)
1073740664 blocks super 1.2 [2/1] [U_]
md1 : active raid1 sda2[0] sdb2[1](F)
524276 blocks super 1.2 [2/1] [U_]
md0 : active (auto-read-only) raid1 sda1[0] sdb1[1]
12581816 blocks super 1.2 [2/2] [UU]
unused devices: <none>
El gasto indica que md0 es en el orden y md1, md2, md3 problemas tienen. (F) marca Devices correspondientes como Failed.

S.M.A.R.T el estatus de los discos duros revisan:

Así se puede preguntar al estatus SMART de los discos duros.
Si el cheque Smart falla, el disco duro debía ser mirado como defectuoso y éste debe ser cambiado urgentemente de modo recomendado por una nueva placa. Amazon* ofrece aquí una selección buena y sobre todo favorable.

El disco duro defectuoso de RAID quitan

Para que el disco duro de RAID pueda ser quitado, éste debía ser quitado antes limpiamente de RAIDVerbund. En nuestro ejemplo el disco duro defectuoso sda está ligado con la partición sda1 solamente con md0. Ahora éste debía todavía ser quitado:
Con eso la partición en „fail“ es puesta en el primer paso:
mdadm –manage /dev/md0 –fail /dev/sdb1
Ahora un otro llamamiento de/proc/mdstat debía indicar el gasto siguiente:
cat /proc/mdstat
Gasto:
Personalities : [raid1]
md3 : active raid1 sda4[0] sdb4[1](F)
1843414335 blocks super 1.2 [2/1] [U_]
md2 : active raid1 sda3[0] sdb3[1](F)
1073740664 blocks super 1.2 [2/1] [U_]
md1 : active raid1 sda2[0] sdb2[1](F)
524276 blocks super 1.2 [2/1] [U_]
md0 : active raid1 sda1[0] sdb1[1](F)
12581816 blocks super 1.2 [2/2] [U_]
unused devices: <none>
Ahora todos los Devices están marcados con (F) como Fail. Ahora las particiones tienen que ser quitadas por separado del compuesto RAID:
mdadm /dev/md0 -r /dev/sdb1
mdadm /dev/md1 -r /dev/sdb2
mdadm /dev/md2 -r /dev/sdb3
mdadm /dev/md3 -r /dev/sdb4
Ahora un llamamiento repetido de/proc/mdstat debía indicar las particiones sin (F) porque sólo más un disco duro es usado en Raid.

Raid defectuoso el estatus [U _] en todas las particiones

Si el estatus está como aquí en todas las particiones en [U _] o [_U] sin estar marcado con (F), el disco duro defectuoso puede ser cambiado.
cat /proc/mdstat
Gasto:
Personalities : [raid1]
md3 : active raid1 sda4[0]
1843414335 blocks super 1.2 [2/1] [U_]
md2 : active raid1 sda3[0]
1073740664 blocks super 1.2 [2/1] [U_]
md1 : active raid1 sda2[0]
524276 blocks super 1.2 [2/1] [U_]
md0 : active raid1 sda1[0]
12581816 blocks super 1.2 [2/1] [U_]
unused devices: <none>
„degraded“ Raid el estatus podría tener aspecto en el detalle como sigue:
mdadm –detail /dev/md0
Gasto:
/dev/md0:
Version : 1.2
Creation Time : Tue Dec 4 11:06:41 2012
Raid Level : raid1
Array Size : 12581816 (12.00 GiB 12.88 GB)
Used Dev Size : 12581816 (12.00 GiB 12.88 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Thu Jul 11 10:36:08 2013
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : rescue:0
UUID : 41488824:9fe70d56:29797b88:18dae177
Events : 452
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 0 0 1 removed
Las últimas ambas líneas indican que sólo más un disco duro (/dev/sda1) es reconocido en Raid. La segunda placa es marcada como „removed“.
En el paso cercano se debía indicar se qué discos duros del sistema hacen realmente todavía de modo reconocido:
cat /proc/partitions
Gasto:
major minor #blocks name
8 0 2930266584 sda
8 1 12582912 sda1
8 2 524288 sda2
8 3 1073741824 sda3
8 4 1843415495 sda4
8 5 1024 sda5
9 0 12581816 md0
9 1 524276 md1
9 2 1073740664 md2
9 3 1843414335 md3
El gasto indica solamente un disco duro (sda). Normalmente un segundo disco duro debía ser indicado aquí (sdb). Esto sugiere que el segundo disco duro es defectuoso y debía ser sustituido. En un alquilado, dedizierten Root de servidores un cambio del disco duro debía ser organizado ahora por el operador correspondiente. Éstas ofrecen la mayoría de las veces un formulario en Support al área.
Si esto concierne el ordenador propio y respectivamente servidor, un nuevo disco duro debía ser adquirido. Idealmente en el tamaño mismo cómo la defectuosa y respectivamente buenos Disk. Amazon* ofrece aquí una selección buena y sobre todo favorable.

El nuevo disco duro después del cambio integran en Raid

Tan pronto como el disco duro era cambiado "cat/proc/partitions" debía ser exportado de nuevo para ver la nueva placa. Ahora nuevo sdb el disco duro debía aparecer. A continuación las particiones del disco duro RAID que funciona 1:1 tienen que ser transmitidas al nuevo disco duro. Esto ocurre, según la tabla de partición usada (MBR o GUID) de diferente manera.
cat /proc/partitions
Gasto:
major minor #blocks name
8 0 2930266584 sda
8 1 12582912 sda1
8 2 524288 sda2
8 3 1073741824 sda3
8 4 1843415495 sda4
8 5 1024 sda5
8 16 2930266584 sdb
9 0 12581816 md0
9 1 524276 md1
9 2 1073740664 md2
9 3 1843414335 md3

A: Particiones copian con GUID (GPT)

Si la tabla de partición GUID es usada, la herramienta sgdisk puede ser usada. Quién aún no lo tiene en su sistema, esto puede instalar cómodamente via apt-get (Bajo las distribuciones Linux más corrientes el paquete gdisk debía ser disponible):
apt-get install gdisk
Particiones de sda en sdb copian. ¡Tienen en cuenta, por favor, a toda costa la sucesión! (sgdisk-R el sistema de meta el sistema de manantial):
sgdisk -R /dev/sdb /dev/sda
El proceso dura por lo general sólo a pocos segundos. Ahora todavía nuevo UUID casual tiene que ser engendrado para la placa:
sgdisk -G /dev/sdb

B: Particiones copian con MBR

Quién usa la tabla de partición MBR, la herramienta fsdisk sabe de modo usado. (debía estar instalado en cada sistema)
Particiones de sda en sdb copian. ¡Tienen en cuenta, por favor, a toda costa la sucesión! (sfdisk-d el sistema de manantial | sfdisk el sistema de meta):
sfdisk -d /dev/sda | sfdisk /dev/sdb
Tabla de partición de Kernel de nuevo einlesen:
sfdisk -R /dev/sdb

El Partitionierung revisan:

cat /proc/partitions
Gasto:
major minor #blocks name
8 0 2930266584 sda
8 1 12582912 sda1
8 2 524288 sda2
8 3 1073741824 sda3
8 4 1843415495 sda4
8 5 1024 sda5
8 16 2930266584 sdb
8 17 12582912 sdb1
8 18 524288 sdb2
8 19 1073741824 sdb3
8 20 1843415495 sdb4
8 21 1024 sdb5
9 0 12581816 md0
9 1 524276 md1
9 2 1073740664 md2
9 3 1843414335 md3
Ahora ambos los discos duros sda y sdb indican de nuevo los tamaños de partición iguales y pueden ser usados por lo tanto para RAID.

Nuevas particiones en RAID integran

Dado que ahora de nuevo todas las particiones son disponibles, éstas pueden ser integrados atrás en Raid. Cada partición por separado, en este caso para sdb:
mdadm /dev/md0 -a /dev/sdb1
mdadm /dev/md1 -a /dev/sdb2
mdadm /dev/md2 -a /dev/sdb3
mdadm /dev/md3 -a /dev/sdb4
Ahora las particiones son sincronizadas después de la fila. El proceso puede hacer uso de algún tiempo según datos usados, corre sin embargo automáticamente en segundo plano. Sin embargo, un estatus puede ser preguntado en todo momento:
cat /proc/mdstat
Gasto:
Personalities : [raid1]
md3 : active raid1 sdb4[2] sda4[0]
1843414335 blocks super 1.2 [2/1] [U_]
[==>………………] recovery = 10.2% (188885184/1843414335) finish=255.5min speed=107885K/sec
md2 : active raid1 sdb3[2] sda3[0]
1073740664 blocks super 1.2 [2/1] [U_]
resync=DELAYED
md1 : active raid1 sdb2[2] sda2[0]
524276 blocks super 1.2 [2/1] [U_]
resync=DELAYED
md0 : active raid1 sdb1[2] sda1[0]
12581816 blocks super 1.2 [2/2] [UU]
unused devices: <none>

CAVABA Bootloader de nuevo instalan

El cavaba Bootloader tiene que ser anclado todavía en el disco duro cambiado. Para esto es suficiente una orden simple:
grub-install /dev/sdb