Gestión y reconstrucción de un RAID software en servidores que utilizan el modo de arranque UEFI
Información sobre la traducción
Esta traducción ha sido generada de forma automática por nuestro partner SYSTRAN. En algunos casos puede contener términos imprecisos, como en las etiquetas de los botones o los detalles técnicos. En caso de duda, le recomendamos que consulte la versión inglesa o francesa de la guía. Si quiere ayudarnos a mejorar esta traducción, por favor, utilice el botón «Contribuir» de esta página.
Objetivo
Un Redundant Array of Independent Disks (RAID) es una tecnología que atenúa la pérdida de datos en un servidor al replicar los datos en dos discos o más.
El nivel RAID predeterminado para las instalaciones de servidores de OVHcloud es el RAID 1, que duplica el espacio ocupado por sus datos, reduciendo así el espacio de disco utilizable a la mitad.
Este guía explica cómo gestionar y reconstruir un RAID software después de un reemplazo de disco en su servidor en modo UEFI.
Antes de comenzar, tenga en cuenta que este tutorial se centra en los servidores dedicados que utilizan el modo UEFI como modo de arranque. Este es el caso de las placas base modernas. Si su servidor utiliza el modo de arranque legacy (BIOS), consulte este tutorial: Gestión y reconstrucción de un RAID software en servidores en modo de arranque legacy (BIOS).
Para verificar si un servidor funciona en modo BIOS legacy o en modo UEFI, ejecute el siguiente comando:
Para obtener más información sobre UEFI, consulte el siguiente artículo: https://uefi.org/about.
Requisitos
- Un servidor dedicado con una configuración de RAID software
- Acceso administrativo (sudo) al servidor a través de SSH
- Comprensión del RAID, las particiones y GRUB
Durante este guía, utilizamos los términos disco principal y disco secundario. En este contexto:
- El disco principal es el disco cuya ESP (partición del sistema EFI) está montada por Linux. El disco o discos secundarios son todos los demás discos del RAID.
Instrucciones
Cuando adquiere un nuevo servidor, puede sentir la necesidad de realizar una serie de pruebas y acciones. Una prueba podría ser simular una falla de disco para comprender el proceso de reconstrucción del RAID.
Vista previa del contenido
- Información básica
- Comprensión de la partición del sistema EFI (ESP)
- Simulación de una falla de disco
- Reconstrucción del RAID (con ESP no espejadas)
- Reconstrucción del RAID después del reemplazo del disco principal (modo rescue)
- Recreación de la partición EFI System
- Reconstrucción del RAID con ESP no sincronizados después de actualizaciones importantes del sistema (GRUB)
- Reconstrucción del RAID después del reemplazo del disco principal (modo normal)
- Reconstrucción del RAID (con ESP en espejo)
- Añadido de la etiqueta a la partición SWAP (si aplica)
Información básica
En una sesión de línea de comandos, escriba el siguiente comando para determinar el estado actual del RAID:
Según los resultados, actualmente tenemos dos dispositivos RAID software configurados, md2 y md3, con md3 siendo el más grande de los dos. md3 está compuesto por dos particiones, llamadas nvme0n1p3 y nvme1n1p3.
El [UU] significa que todos los discos funcionan normalmente. Un _ indicaría un disco defectuoso.
En otros casos, obtendría los siguientes resultados:
Según los resultados, actualmente tenemos tres dispositivos RAID software configurados, md1, md2 y md3, con md3 siendo el más grande de los dos. md3 está compuesto por dos particiones, llamadas nvme0n1p3 y nvme1n1p3.
Si tiene un servidor con discos SATA, obtendrá los siguientes resultados:
Este comando muestra nuestros volúmenes RAID, pero no el tamaño de las particiones. Podemos encontrar esta información con fdisk -l:
fdisk -l
Este comando también permite identificar el tipo de partición.
Para las particiones GPT, la línea 6 mostrará: Disklabel type: gpt.
Esta información solo es visible cuando el servidor está en modo normal.
Siempre basándonos en los resultados de fdisk -l, podemos ver que /dev/md2 se compone de 1022 MiB y /dev/md3 contiene 474,81 GiB. Si ejecutamos el comando mount, también podemos encontrar la disposición de los discos.
Como alternativa, el comando lsblk ofrece una vista diferente de las particiones:
Además, si ejecutamos lsblk -f, obtenemos más información sobre estas particiones, como el LABEL y el UUID:
Observe los dispositivos, las particiones y los puntos de montaje, ya que esto es importante, especialmente después del reemplazo de un disco. Esto le permitirá verificar que las particiones están correctamente montadas en sus puntos de montaje respectivos en el nuevo disco.
En nuestro ejemplo, tenemos:
- Dos matrices RAID:
/dev/md2y/dev/md3. - Particiones que forman parte del RAID: nvme0n1p2, nvme0n1p3, nvme1n1p2 y nvme0n1p3 con los puntos de montaje
/booty/. - Particiones que no forman parte del RAID: nvem0n1p1, nvme0n1p4 y nvme1n1p4 con los puntos de montaje
/boot/efiy [SWAP]. - Una partición no tiene punto de montaje: nvme1n1p1.
La partición nvme0n1p5 es una partición de configuración, es decir, un volumen de solo lectura conectado al servidor que le proporciona los datos de configuración inicial.
Comprender la partición del sistema EFI (ESP)
Expanda esta sección
¿Qué es una partición del sistema EFI?
Una partición del sistema EFI es una partición que puede contener los cargadores de arranque, los administradores de arranque o las imágenes del kernel de un sistema operativo instalado. También puede contener programas útiles del sistema destinados a ser ejecutados antes del arranque del sistema operativo, así como archivos de datos como registros de errores.
¿La partición del sistema EFI se espeja en RAID?
A partir de diciembre de 2025, solo las siguientes versiones del sistema operativo espejarán la partición del sistema EFI en RAID para nuevas instalaciones o reinstalaciones:
- Debian 13
- Proxmox 9
- Ubuntu 25.10
- AlmaLinux y Rocky Linux 10
- Fedora 43
Para versiones anteriores de estos sistemas operativos, la partición EFI no se espeja en RAID ; se crean varias ESP, una por disco. Sin embargo, solo se monta una ESP a la vez, y todas las ESP contienen los mismos archivos. La partición del sistema EFI se monta en /boot/efi, y el disco en el que se monta se selecciona por Linux al arrancar.
Puede usar el comando lsblk para verificar si su partición forma parte de una configuración RAID.
Según los resultados anteriores, podemos ver que solo una partición del sistema EFI está montada en /boot/efi. Por lo tanto, las ESP no están espejadas (replicadas).
Según los resultados anteriores, podemos ver que las dos particiones del sistema EFI están montadas en /boot/efi. Por lo tanto, están espejadas en RAID.
¿El contenido de la partición del sistema EFI cambia regularmente?
Por lo general, el contenido de esta partición no cambia mucho, solo debería cambiar cuando se actualiza el gestor de arranque (bootloader) (por ejemplo, GRUB).
Sin embargo, si su partición EFI no está espejada, le recomendamos ejecutar un script automático o manual para sincronizar todas las ESP, para que contengan todos los mismos archivos actualizados. De esta manera, si el disco en el que se monta esta partición falla, el servidor podrá reiniciar desde la ESP de uno de los otros discos.
¿Qué sucede si el disco principal (con la partición del sistema EFI montada) falla?
Si su ESP no está espejada, puede encontrar las siguientes dificultades:
Tenga en cuenta que, aunque examinamos a continuación los casos más comunes, existen varias otras razones por las que un servidor puede no arrancar en modo normal después de un reemplazo de disco.
Estudio de caso 1 - No se han realizado modificaciones ni actualizaciones importantes (por ejemplo, GRUB) en el sistema operativo.
- El servidor puede arrancar en modo normal y puede proceder a la reconstrucción del RAID.
- El servidor no puede arrancar en modo normal. Utilice el entorno del modo rescue para reconstruir el RAID y recrear la partición EFI en el nuevo disco.
Estudio de caso 2 - Se han realizado actualizaciones importantes del sistema (por ejemplo, GRUB) y las ESP están sincronizadas.
- El servidor puede arrancar en modo normal porque todas las ESP contienen información actualizada y la reconstrucción del RAID puede realizarse en modo normal.
- El servidor no puede arrancar en modo normal. Utilice el entorno del modo rescue para reconstruir el RAID y recrear la partición EFI en el nuevo disco.
Estudio de caso 3 - Se han realizado actualizaciones importantes del sistema (por ejemplo, GRUB) en el sistema operativo y las particiones ESP no se han sincronizado.
- El servidor no puede arrancar en modo normal, utilice el entorno del modo rescue para reconstruir el RAID, recrear la partición del sistema EFI en el nuevo disco y reinstalar el bootloader (por ejemplo, GRUB).
- El servidor puede arrancar en modo normal (esto podría ocurrir en el caso de que un sistema operativo se actualice pero la versión de GRUB permanezca sin cambios), lo que permite proceder a la reconstrucción del RAID.
En algunos casos, el arranque desde una ESP obsoleta puede fallar ; por ejemplo, una actualización importante de GRUB puede hacer que el binario GRUB en la ESP sea incompatible con los nuevos módulos GRUB en la partición /boot.
¿Cómo puedo sincronizar mis particiones del sistema EFI, y con qué frecuencia debo sincronizarlas?
Si su partición del sistema EFI no está espejada, tenga en cuenta los siguientes elementos:
Tenga en cuenta que el proceso puede variar según su sistema operativo. Por ejemplo, Ubuntu puede sincronizar varias particiones del sistema EFI con cada actualización de GRUB, pero es el único sistema operativo que lo hace. Le recomendamos consultar la documentación oficial de su sistema operativo para entender cómo gestionar las ESP.
En este guía, el sistema operativo utilizado es Debian.
Le recomendamos sincronizar sus ESP regularmente o después de cada actualización importante del sistema. Por defecto, todas las particiones del sistema EFI contienen los mismos archivos después de la instalación. Sin embargo, si se implica una actualización importante del sistema, la sincronización de las ESP es esencial para mantener el contenido actualizado.
Ejecutar un script es una manera eficaz de sincronizar regularmente sus particiones. A continuación encontrará un script que puede utilizar para sincronizar manualmente sus ESP. También puede configurar un script automatizado para sincronizarlas diariamente o en cada arranque del sistema.
Antes de ejecutar el script, asegúrese de que rsync esté instalado en su sistema:
Debian/Ubuntu
CentOS, Red Hat y Fedora
Para ejecutar un script en Linux, necesita un archivo ejecutable:
- Comience creando un archivo .sh en el directorio de su elección, reemplazando
script-namepor el nombre que desee.
- Abra el archivo con un editor de texto y agregue las siguientes líneas:
Guarde y cierre el archivo.
- Haga que el script sea ejecutable
- Ejecute el script
- Si no está en el directorio
Cuando se ejecuta el script, el contenido de la partición EFI montada se sincronizará con las demás. Para acceder al contenido, puede montar una de estas particiones EFI no montadas en el punto de montaje: /var/lib/grub/esp.
Simulación de una falla de disco
Ahora que disponemos de la información necesaria, podemos simular una falla de disco. En este ejemplo, provocaremos la falla del disco principal nvme0n1 (tenga en cuenta que es el disco en el que se monta la ESP).
El método preferido para hacerlo es a través del modo rescue de OVHcloud.
Reinicie el servidor en modo rescue y conéctese con las credenciales proporcionadas.
Para eliminar un disco del RAID, el primer paso es marcarlo como Failed (defectuoso) y eliminar las particiones de sus respectivas tablas RAID.
Nota: esto es solo un ejemplo; adapte los comandos a su propia configuración.
A partir del resultado anterior, nvme0n1 tiene dos particiones en RAID que son nvme0n1p2 y nvme0n1p3.
Retiro del disco defectuoso
En primer lugar, marcamos las particiones nvme0n1p2 y nvme0n1p3 como defectuosas (Failed).
A continuación, ejecutamos el comando cat /proc/mdstat:
Como podemos ver arriba, el [F] junto a las particiones indica que el disco está defectuoso o fallado.
A continuación, retiramos estas particiones de las matrices RAID para eliminar completamente el disco del RAID.
El estado del RAID debería parecerse ahora a esto:
Ahora, solo aparecen dos particiones en las matrices RAID. Hemos logrado provocar la falla del disco nvme0n1.
Para obtener un disco similar a un disco vacío, ejecute el siguiente comando en cada partición, y luego en el disco:
El disco ahora aparece como un disco nuevo y vacío:
Ejecute el siguiente comando para verificar que el disco se ha "borrado" correctamente:
Para obtener más información sobre la preparación y la solicitud de reemplazo de un disco, consulte este guía.
Además, si ejecuta el siguiente comando, obtendrá más detalles sobre las matrices RAID:
Ahora podemos proceder al reemplazo del disco y a la reconstrucción del RAID.
Reconstrucción del RAID (con ESP no espejadas)
Este proceso puede variar según el sistema operativo instalado en su servidor. Le recomendamos consultar la documentación oficial de su sistema operativo para obtener los comandos adecuados.
Si su servidor puede arrancar en modo normal después del reemplazo del disco, simplemente siga los pasos descritos en esta sección si su partición EFI no está espejada o esta sección si su partición EFI está espejada.
Reconstrucción del RAID después del reemplazo del disco principal (modo rescue)
Una vez que el disco se ha reemplazado, copie la tabla de particiones del disco sano (en este ejemplo, nvme1n1) hacia el nuevo disco (nvme0n1).
Para particiones GPT
El comando debe tener este formato: sgdisk -R /dev/nuevo disco /dev/disco sano
Ejemplo:
Ejecute lsblk para asegurarse de que las tablas de particiones se hayan copiado correctamente:
A continuación, aleatorice el GUID del nuevo disco para evitar conflictos con los GUID de otros discos:
Si recibe el siguiente mensaje:
Ejecute el comando partprobe.
A continuación, reconstruimos la matriz RAID. El siguiente fragmento de código muestra cómo añadir las nuevas particiones (nvme0n1p2 y nvme0n1p3) a la matriz RAID.
Para verificar el proceso de reconstrucción:
Una vez que la reconstrucción del RAID se complete, ejecute el siguiente comando para asegurarse de que las particiones se hayan agregado correctamente al RAID:
Según los resultados anteriores, las particiones del nuevo disco se han agregado correctamente al RAID. Sin embargo, la partición EFI System y la partición SWAP (en algunos casos) no se han duplicado, lo cual es normal ya que no forman parte del RAID.
Los ejemplos anteriores ilustran simplemente los pasos necesarios basados en una configuración de servidor predeterminada. Los resultados de cada comando dependen del tipo de hardware instalado en su servidor y de la estructura de sus particiones. En caso de duda, consulte la documentación de su sistema operativo.
Si necesita asistencia profesional para la administración de su servidor, consulte los detalles de la sección Más información de este tutorial.
Recreación de la partición EFI System
Para recrear la partición EFI System en el nuevo disco, debemos formatear nvme0n1p1 y replicar el contenido de la partición EFI System sana (en nuestro ejemplo: nvme1n1p1) en esta.
Aquí, suponemos que ambas particiones han sido sincronizadas y contienen archivos actualizados.
Si se ha realizado una actualización importante del sistema, como una actualización del kernel o de GRUB, y las dos particiones no han sido sincronizadas, consulte esta sección una vez que haya terminado de crear la nueva partición EFI System.
Primero, formatee la partición:
A continuación, nombre la partición EFI_SYSPART (este nombre es específico de OVHcloud):
Duplique a continuación el contenido de nvme1n1p1 en nvme0n1p1.
Comience creando dos directorios, llamados « old » y « new » en este ejemplo:
A continuación, monte nvme1n1p1 en el directorio « old » y nvme0n1p1 en el directorio « new » para hacer la distinción:
Copie los archivos del directorio « old » al directorio « new »:
Una vez hecho esto, desmonte ambas particiones:
A continuación, monte la partición que contiene la raíz del sistema operativo en /mnt. En este ejemplo, esta partición es md3.
Monte los siguientes directorios para asegurarse de que todos los cambios realizados en el entorno chroot funcionen correctamente:
A continuación, utilice el comando chroot para acceder al punto de montaje y verifique que la nueva partición del sistema EFI se haya creado correctamente y que el sistema reconozca los dos ESP:
Para mostrar las particiones ESP, ejecute el comando blkid -t LABEL=EFI_SYSPART:
Los resultados anteriores muestran que la nueva partición EFI se ha creado correctamente y que se ha aplicado correctamente la etiqueta.
Una vez hecho esto, salga del entorno chroot:
A continuación, consulte esta sección para recrear la partición SWAP (si aplica).
Reconstrucción del RAID con ESP no sincronizados después de actualizaciones importantes del sistema (GRUB)
Expanda esta sección
Siga los pasos de esta sección únicamente si se aplica a su caso.
Si el disco principal se reemplaza cuando contiene particiones del sistema EFI que no se han sincronizado después de actualizaciones importantes del sistema que hayan modificado el GRUB, el arranque desde uno de los discos secundarios con una ESP obsoleta puede fallar.
En este caso, además de reconstruir el RAID y recrear la partición del sistema EFI en modo rescue, también debe reinstalar el GRUB en esta.
Una vez que se ha creado la ESP (como se explicó anteriormente) y se reconoce por el sistema, siempre dentro del entorno chroot, cree el directorio /boot/efi para montar la nueva partición del sistema EFI nvme0n1p1.
A continuación, reinstale el cargador de arranque GRUB (bootloader):
A continuación, ejecute el siguiente comando:
Una vez hecho esto, salga del entorno chroot:
A continuación, consulte esta sección para recrear la partición SWAP (si aplica).
Reconstrucción del RAID después del reemplazo del disco principal (modo normal)
Expanda esta sección
Si su servidor es capaz de arrancar en modo normal después de un reemplazo de disco, puede seguir los pasos a continuación para reconstruir el RAID.
Una vez que el disco se ha reemplazado, copiamos la tabla de partición del disco sano (en este ejemplo, nvme1n1) al nuevo (nvme0n1).
Para particiones GPT
El comando debe estar en este formato: sgdisk -R /dev/nuevo disco /dev/disco sano.
Una vez hecho esto, el siguiente paso consiste en asignar un GUID aleatorio al nuevo disco para evitar conflictos de GUID con otros discos:
Si recibe el siguiente mensaje:
Ejecute simplemente el comando partprobe. Si aún no ve las nuevas particiones creadas (con el comando lsblk), debe reiniciar el servidor antes de continuar.
A continuación, agregue las particiones al RAID:
Utilice este comando para seguir la reconstrucción del RAID: cat /proc/mdstat.
Una vez finalizada la reconstrucción, vuelva a crear la partición del sistema EFI en el nuevo disco.
- En primer lugar, asegúrese de que las herramientas necesarias estén instaladas:
Debian y Ubuntu
CentOS
- Formatee la partición. En nuestro ejemplo
nvme0n1p1:
- Asigne la etiqueta
EFI_SYSPARTa la partición (este nombre es específico de OVHcloud):
Una vez hecho esto, puede sincronizar las dos particiones utilizando el script proporcionado en este tutorial.
- Verifique que la nueva partición EFI System se haya creado correctamente y que el sistema la reconozca:
A continuación, consulte esta sección para recrear la partición SWAP (si aplica).
Reconstrucción del RAID (con ESP en espejo)
Expanda esta sección
La reconstrucción del RAID con todas las particiones en espejo es más sencilla; basta con copiar los datos del disco sano al nuevo disco y recrear la partición [SWAP] (si aplica).
Según las ilustraciones anteriores, el estado del RAID debería ser como sigue después de una falla del disco:
Una vez que el disco se ha reemplazado, el primer paso consiste en copiar la tabla de partición del disco sano (en este ejemplo, nvme1n1) al nuevo disco (nvme0n1).
Para particiones GPT
El comando debe estar en el siguiente formato: sgdisk -R /dev/nuevo disco /dev/disco sano.
En nuestro ejemplo:
Ejecute lsblk para asegurarse de que las tablas de partición se hayan copiado correctamente:
El siguiente paso consiste en asignar un GUID aleatorio al nuevo disco para evitar conflictos de GUID con otros discos:
Si recibe el siguiente mensaje:
Ejecute el comando partprobe.
Ahora podemos reconstruir la matriz RAID. El siguiente fragmento de código muestra cómo agregar nuevamente las nuevas particiones (nvme0n1p2 y nvme0n1p3) a la matriz RAID.
Para verificar el proceso de reconstrucción:
Una vez que la reconstrucción se complete, ejecute el siguiente comando para asegurarse de que las particiones se hayan agregado correctamente al RAID:
A continuación, consulte esta sección para recrear la partición SWAP (si aplica).
Según las ilustraciones anteriores, el estado del RAID debería ser como sigue después de una falla del disco:
Una vez que el disco se ha reemplazado, el primer paso consiste en copiar la tabla de partición del disco sano (en este ejemplo, nvme1n1) al nuevo disco (nvme0n1).
Para particiones GPT
El comando debe estar en el siguiente formato: sgdisk -R /dev/nuevo disco /dev/disco sano.
A continuación, genere un GUID aleatorio para el nuevo disco para evitar conflictos con los GUID de otros discos:
Si recibe el siguiente mensaje:
Ejecute simplemente el comando partprobe. Si aún no ve las nuevas particiones creadas (ej. con lsblk), debe reiniciar el servidor antes de continuar.
A continuación, agregue las particiones al RAID:
Utilice el siguiente comando para supervisar la reconstrucción del RAID:
Una vez que la reconstrucción del RAID se complete, consulte esta sección para recrear la partición SWAP (si aplica).
Añadido de la etiqueta a la partición SWAP (si aplica)
Expanda esta sección
Fuera del entorno chroot, recree la partición [SWAP] nvme0n1p4 y añada la etiqueta swap-nvmenxxx:
Verifique que la etiqueta se haya aplicado correctamente:
Acceda nuevamente al entorno chroot:
Recupere el UUID de ambas particiones SWAP:
A continuación, reemplace el antiguo UUID de la partición SWAP (nvme0n1p4) por el nuevo en el archivo /etc/fstab:
Ejemplo:
Según los resultados anteriores, el antiguo UUID es b7b5dd38-9b51-4282-8f2d-26c65e8d58ec y debe ser reemplazado por el nuevo b3c9e03a-52f5-4683-81b6-cc10091fcd15. Asegúrese de reemplazar el UUID correcto.
A continuación, verifique que todo esté correctamente montado con el siguiente comando:
Active la partición SWAP:
Salga del entorno chroot con exit y recargue el sistema:
Desmonte todos los discos:
Hemos terminado con éxito la reconstrucción RAID en el servidor y ahora podemos reiniciar el servidor en modo normal.
Para recrear la partición SWAP, proceda de la siguiente manera:
- En primer lugar, recree la partición en nvme0n1p4 y añada la etiqueta swap-nvme0n1p4:
- Recupere los UUID de ambas particiones SWAP:
Reemplace el antiguo UUID de la partición SWAP (nvme0n1p4) por el nuevo en /etc/fstab:
Ejemplo:
Según los resultados anteriores, el UUID antiguo es b7b5dd38-9b51-4282-8f2d-26c65e8d58ec y debe sustituirse por el nuevo b3c9e03a-52f5-4683-81b6-cc10091fcd15.
Asegúrese de sustituir el UUID correcto.
A continuación, ejecute el siguiente comando para activar la partición SWAP:
A continuación, reinicie el sistema:
Ahora hemos completado con éxito la reconstrucción del RAID.
Más información
Para servicios especializados (SEO, desarrollo, etc.), contacte con los socios de OVHcloud.
Si necesita asistencia para utilizar y configurar sus soluciones OVHcloud, consulte nuestras ofertas de soporte.
Si necesita formación o asistencia técnica para implementar nuestras soluciones, contacte con su representante comercial o haga clic en este enlace para obtener un presupuesto y solicitar que los expertos del equipo de Professional Services intervengan en su caso de uso específico.
Únase a nuestra comunidad de usuarios.