Gestione e ricostruzione del RAID software sui server in modalità legacy boot (BIOS)
Informazioni sulla traduzione
Questa traduzione è stata generata automaticamente dal nostro partner SYSTRAN. I contenuti potrebbero presentare imprecisioni, ad esempio la nomenclatura dei pulsanti o alcuni dettagli tecnici. In caso di dubbi consigliamo di fare riferimento alla versione inglese o francese della guida. Per aiutarci a migliorare questa traduzione, utilizza il pulsante "Contribuisci" di questa pagina.
Obiettivo
Il RAID (Redundant Array of Independent Disks) è un insieme di tecniche progettate per ridurre la perdita di dati su un server replicandoli su più dischi.
Il livello RAID predefinito per le installazioni dei server OVHcloud è RAID 1, che raddoppia lo spazio occupato dai vostri dati, riducendo quindi a metà lo spazio disco utilizzabile.
Questa guida spiega come gestire e ricostruire un RAID software in caso di sostituzione di un disco su un server in modalità legacy boot (BIOS).
Prima di iniziare, notate che questa guida si concentra sui server dedicati che utilizzano la modalità legacy boot (BIOS). Se il vostro server utilizza la modalità UEFI (schede madri più recenti), fate riferimento a questa guida Gestione e ricostruzione del RAID software sui server in modalità boot UEFI.
Per verificare se un server è in esecuzione in modalità BIOS o in modalità UEFI, eseguite il comando seguente:
Prerequisiti
- Possedere un server dedicato con una configurazione RAID software.
- Avere accesso al server tramite SSH come amministratore (sudo).
- Conoscenza del RAID e delle partizioni.
Procedura
Panoramica del contenuto
Informazioni di base
Nella sessione della riga di comando, digitate il codice seguente per determinare lo stato attuale del RAID.
Questo comando ci indica che due dispositivi RAID software sono attualmente configurati, md4 essendo il più grande. Il dispositivo RAID md4 è composto da due partizioni, denominate nvme0n1p4 e nvme1n1p4.
Il [UU] significa che tutti i dischi funzionano normalmente. Un _ indica un disco guasto.
Se possedete un server con dischi SATA, otterrete i seguenti risultati:
Sebbene questo comando restituisca i nostri volumi RAID, non ci indica la dimensione delle partizioni stesse. Possiamo trovare questa informazione con il comando seguente:
Il comando fdisk -l vi permette inoltre di identificare il tipo di partizione. Si tratta di un'informazione importante per ricostruire il vostro RAID in caso di guasto di un disco.
Per le partizioni GPT, la riga 6 mostrerà: Disklabel type: gpt. Queste informazioni sono visibili solo quando il server è in modalità normale.
Ancora in base ai risultati di fdisk -l, possiamo vedere che /dev/md2 è composto da 888.8GB e /dev/md4 contiene 973.5GB.
In alternativa, il comando lsblk offre una visione diversa delle partizioni:
Prendete nota dei dispositivi, delle partizioni e dei punti di montaggio, poiché questo è importante, in particolare dopo la sostituzione di un disco. Questo vi permetterà di verificare che le partizioni siano correttamente montate sui rispettivi punti di montaggio sul nuovo disco.
Nel nostro esempio, abbiamo:
- Partizioni che fanno parte di md2 (
/) : sda2 e sdb2. - Partizioni che fanno parte di md4 (
/home) : sda4 e sdb4. - Partizioni swap : sda3 e sdb3.
- Partizioni BIOS boot : sda1 e sdb1.
La partizione sda5 è un config drive, ovvero un volume in sola lettura che fornisce al server i suoi dati di configurazione iniziale. Viene letta solo una volta al primo avvio e può essere eliminata in seguito.
Simulare un guasto del disco
Disponiamo di tutte le informazioni necessarie per simulare un guasto del disco. In questo esempio, faremo fallire il disco sda.
Il metodo preferito per farlo è l'ambiente in modalità rescue di OVHcloud.
Riavviate prima il server in modalità rescue e connettetevi con le credenziali fornite.
Per rimuovere un disco dal RAID, il primo passo consiste nel marcarlo come Failed e rimuovere le partizioni dai loro array RAID rispettivi.
Dall'output sopra, sda è composto da due partizioni in RAID che sono sda2 e sda4.
Rimozione del disco guasto
Iniziamo marcando le partizioni sda2 e sda4 come Failed.
Ora abbiamo simulato un guasto al RAID, quando eseguiamo il comando cat /proc/mdstat, otteniamo il risultato seguente:
Come possiamo vedere sopra, il [F] accanto alle partizioni indica che il disco è guasto o difettoso.
Successivamente, rimuoviamo queste partizioni dagli array RAID.
Per simulare un disco vuoto, utilizzate il comando seguente. Sostituite sda con i vostri valori:
Il disco appare ora come un disco nuovo e vuoto:
Se eseguiamo il seguente comando, vediamo che il nostro disco è stato correttamente "cancellato":
Lo stato del nostro RAID dovrebbe ora apparire come segue:
I risultati sopra riportati mostrano che nelle matrici RAID vengono visualizzate solo due partizioni. Il disco sda ha avuto esito negativo e ora è possibile procedere alla sostituzione del disco.
Per informazioni sulla preparazione e la richiesta di sostituzione di un disco, consultate questa guida.
Il comando seguente fornisce maggiori dettagli sulle matrici RAID:
Ricostruire il RAID
Questo processo può variare a seconda del sistema operativo installato sul server. Si consiglia di consultare la documentazione ufficiale del sistema operativo per ottenere i comandi appropriati.
Per la maggior parte dei server con RAID software, dopo la sostituzione del disco, il server è in grado di avviarsi in modalità normale (sul disco sano) per ricostruire il RAID. Tuttavia, se il server non riesce ad avviarsi in modalità normale, verrà riavviato in modalità rescue per procedere alla ricostruzione del RAID.
Ricostruzione del RAID in modalità normale
Nel nostro esempio, abbiamo sostituito il disco sda.
Una volta sostituito il disco, dobbiamo copiare la tabella di partizione del disco sano (in questo esempio, sdb) su quello nuovo (sda).
Il comando deve essere nel formato seguente: sgdisk -R /dev/nuovo_disco /dev/disco_sano.
Il comando deve essere nel formato seguente: sfdisk -d /dev/disco_sano | sfdisk /dev/nuovo_disco.
Una volta effettuata questa operazione, il passaggio successivo consiste nell'assegnare un GUID casuale al nuovo disco per evitare qualsiasi conflitto con i GUID di altri dischi:
Se viene visualizzato il seguente messaggio:
Eseguite partprobe. Se le partizioni appena create non sono ancora visibili (ad esempio con lsblk), è necessario riavviare il server prima di continuare.
Quindi, aggiungiamo le partizioni al RAID:
Utilizzate il seguente comando per monitorare la ricostruzione del RAID:
Infine, aggiungiamo un'etichetta e montiamo la partizione [SWAP] (se necessario).
Per aggiungere un'etichetta alla partizione SWAP:
Successivamente, recuperiamo gli UUID delle due partizioni SWAP:
Sostituiamo il vecchio UUID della partizione SWAP (sda4) con quello nuovo nel file /etc/fstab.
Esempio:
In base ai risultati sopra riportati, il vecchio UUID è b7b5dd38-9b51-4282-8f2d-26c65e8d58ec e deve essere sostituito con il nuovo b3c9e03a-52f5-4683-81b6-cc10091fcd15.
Assicuratevi di sostituire l'UUID corretto.
Quindi, verifichiamo che tutto sia montato correttamente utilizzando il seguente comando:
Eseguite il comando seguente per attivare la partizione swap:
Successivamente, ricaricate il sistema con il comando seguente:
La ricostruzione del RAID è ora completata.
Ricostruzione del RAID in modalità rescue
Se il vostro server non riesce a riavviarsi in modalità normale dopo la sostituzione del disco, verrà riavviato in modalità rescue dal nostro team del data center.
In questo esempio, abbiamo sostituito il disco sdb.
Una volta sostituito il disco, dobbiamo copiare la tabella delle partizioni del disco sano (in questo esempio, sda) verso il nuovo (sdb).
Il comando deve essere nel formato seguente: sgdisk -R /dev/nuovo_disco /dev/disco_sano
Esempio:
Il comando deve essere nel formato seguente: sfdisk -d /dev/disco_sano | sfdisk /dev/nuovo_disco
Esempio:
Una volta completata questa operazione, il passo successivo consiste nell'assegnare un GUID casuale al nuovo disco per evitare conflitti con i GUID di altri dischi:
Se appare il seguente messaggio:
Eseguite il comando partprobe.
Possiamo ora ricostruire l'array RAID aggiungendo le nuove partizioni (sdb2 e sdb4):
Utilizzate il comando cat /proc/mdstat per monitorare la ricostruzione del RAID:
Infine, aggiungiamo un'etichetta e montiamo la partizione [SWAP] (se necessario).
Una volta completata la ricostruzione del RAID, montiamo la partizione che contiene la radice del nostro sistema operativo su /mnt. Nell'esempio, questa partizione è md2.
Aggiungiamo l'etichetta alla nostra partizione swap con il comando:
Successivamente, montiamo le seguenti directory per assicurarci che qualsiasi modifica che effettuiamo nell'ambiente chroot funzioni correttamente:
Successivamente, accediamo all'ambiente chroot:
Recuperiamo gli UUID delle due partizioni SWAP:
Esempio:
Successivamente, sostituiamo l'UUID vecchio della partizione swap (sdb4) con il nuovo in /etc/fstab:
Esempio:
Nell'esempio sopra, l'UUID da sostituire è d6af33cf-fc15-4060-a43c-cb3b5537f58a con il nuovo b3c9e03a-52f5-4683-81b6-cc10091fcd15.
Assicuratevi di sostituire l'UUID corretto.
Successivamente, verifichiamo che tutto sia correttamente montato:
Attivate la partizione swap con il comando seguente:
Usciamo dall'ambiente chroot con exit e ricarichiamo il sistema:
Smontiamo tutti i dischi:
La ricostruzione del RAID è ora completata. Riavviate il server in modalità normale.
Per saperne di più
Per servizi specializzati (posizionamento, sviluppo, ecc.), contatta i partner OVHcloud.
Se desideri ricevere un supporto sull'utilizzo e la configurazione delle tue soluzioni OVHcloud, consulta le nostre diverse offerte di supporto.
Se hai bisogno di un corso o di un supporto tecnico per l'implementazione delle nostre soluzioni, contatta il tuo commerciale o clicca su questo link per ottenere un preventivo e richiedere un'analisi personalizzata del tuo progetto ai nostri esperti del team Professional Services.
Contatta la nostra Community di utenti.