Verwalten und Neuaufbauen von Software-RAID auf Servern mit UEFI-Boot-Modus
Informationen zur Übersetzung
Diese Übersetzung wurde durch unseren Partner SYSTRAN automatisch erstellt. In manchen Fällen können ungenaue Formulierungen verwendet worden sein, z.B. bei der Beschriftung von Schaltflächen oder technischen Details. Bitte ziehen Sie im Zweifelsfall die englische oder französische Fassung der Anleitung zu Rate. Möchten Sie mithelfen, diese Übersetzung zu verbessern? Dann nutzen Sie dazu bitte den Button "Beitragen" auf dieser Seite.
Ziel
Redundant Array of Independent Disks (RAID) ist eine Technologie, die den Datenverlust auf einem Server durch die Replikation von Daten auf zwei oder mehr Disks minimiert.
Der Standard-RAID-Level für OVHcloud Serverinstallationen ist RAID 1, wodurch der von Ihren Daten belegte Platz verdoppelt wird, was effektiv den nutzbaren Speicher halbiert.
Diese Anleitung erklärt, wie Sie Software-RAID nach einem Disktausch auf einem Server mit UEFI-Boot-Modus verwalten und neu aufbauen können.
Beachten Sie, dass diese Anleitung sich auf dedizierte Server bezieht, die den UEFI-Boot-Modus verwenden. Dies ist bei aktuellen Motherboards der Fall. Wenn Ihr Server den Legacy-Boot-Modus (BIOS) verwendet, konsultieren Sie diese Anleitung: Verwalten und Neuaufbauen von Software-RAID auf Servern im Legacy-Boot-Modus (BIOS).
Um zu prüfen, ob ein Server im Legacy-BIOS-Modus oder im UEFI-Boot-Modus läuft, führen Sie den folgenden Befehl aus:
Weitere Informationen zu UEFI finden Sie in diesem Artikel.
Voraussetzungen
- Sie haben einen Dedicated Server mit Software-RAID-Konfiguration.
- Sie haben administrativen Zugriff (sudo) auf Ihre Server.
- Sie haben Grundkenntnisse zu RAID, Partitionen und GRUB.
Im Laufe dieser Anleitung verwenden wir die Begriffe primäre Disk und sekundäre Disk:
- Die primäre Disk ist die Disk, deren ESP (EFI-Systempartition) von Linux eingehängt wird.
- Die sekundären Disks sind alle anderen Disks im RAID.
In der praktischen Anwendung
Wenn Sie einen neuen Server bestellt und installiert haben, können Sie vorab eine Reihe von Tests durchzuführen. Ein solcher Test könnte darin bestehen, einen Diskausfall zu simulieren, um den RAID-Wiederherstellungsprozess zu verstehen.
Inhaltsübersicht
- Grundlegende Informationen
- Verständnis der EFI-Systempartition (ESP)
- Simulieren eines Diskausfalls
- Wiederherstellung des RAID (mit nicht gespiegeltem ESP)
- Wiederherstellung des RAID (mit gespiegeltem ESP)
- Label zur SWAP-Partition hinzufügen (falls zutreffend)
Grundlegende Informationen
In einer Befehlszeilensitzung geben Sie den folgenden Code ein, um den RAID-Status zu ermitteln:
Den Ergebnissen zufolge sind derzeit zwei Software-RAID-Geräte konfiguriert, md2 und md3, wobei md3 das größere der beiden ist. md3 besteht aus zwei Partitionen namens nvme0n1p3 und nvme1n1p3.
[UU] bedeutet, dass alle Disks normal funktionieren. Ein _ würde stattdessen eine defekte Disk anzeigen.
In anderen Fällen erhielten Sie die folgenden Ergebnisse:
Die Ergebnisse zeigen drei konfigurierte Software-RAID-Geräte, md1, md2 und md3, wobei md3 das größte der drei ist. md3 besteht aus zwei Partitionen namens nvme0n1p3 und nvme1n1p3.
Wenn Sie einen Server mit SATA-Disks haben, erhalten Sie die folgenden Ergebnisse:
Dieser Befehl zeigt unsere RAID-Volumes an, jedoch nicht die Partitionsgrößen. Diese Informationen können wir mit fdisk -l abrufen:
fdisk -l
Dieser Befehl kann auch verwendet werden, um den Partitionstyp zu identifizieren.
Für GPT-Partitionen wird in Zeile 6 Folgendes angezeigt: Disklabel type: gpt.
Diese Informationen sind nur sichtbar, wenn sich der Server im normalen Modus befindet.
Den Ergebnissen zufolge sehen wir, dass /dev/md2 aus 1022 MiB besteht und /dev/md3 474,81 GiB enthält. Wenn wir den Befehl mount ausführen, können wir auch das Layout der Disk herausfinden.
Alternativ bietet der Befehl lsblk eine andere Ansicht der Partitionen:
Außerdem erhalten wir mit lsblk -f weitere Informationen zu diesen Partitionen, wie z. B. die Bezeichnung und UUID:
Notieren Sie sich die Geräte, Partitionen und Einhängepunkte, da dies besonders nach dem Austausch einer Disk wichtig ist. So können Sie überprüfen, ob die Partitionen korrekt an ihren jeweiligen Einhängepunkten auf der neuen Disk eingehängt sind.
In unserem Beispiel haben wir:
- Zwei RAID-Arrays:
/dev/md2und/dev/md3. - Partitionen, die Teil des RAID sind: nvme0n1p2, nvme0n1p3, nvme1n1p2 und nvme0n1p3 mit den Einhängepunkten
/bootund/. - Partitionen, die nicht Teil des RAID sind: nvem0n1p1, nvme0n1p4 und nvme1n1p4 mit den Einhängepunkten
/boot/efiund [SWAP]. - Eine Partition hat keinen Einhängepunkt: nvme1n1p1.
Verständnis der EFI-Systempartition (ESP)
Diesen Abschnitt aufklappen
Was ist eine EFI-Systempartition?
Eine EFI-Systempartition ist eine Partition, die die Bootloader, Bootmanager oder Kernels eines installierten Betriebssystems enthalten kann. Sie kann auch Systemhilfsprogramme enthalten, die vor dem Start des Betriebssystems ausgeführt werden sollen, sowie Datendateien wie Fehlerprotokolle.
Wird die EFI-Systempartition in einem RAID gespiegelt?
Seit Dezember 2025 spiegeln nur die folgenden Betriebssystemversionen die EFI-Systempartition in RAID für Neuinstallationen oder Neuinstallationen:
- Debian 13
- Proxmox 9
- Ubuntu 25.10
- AlmaLinux und Rocky Linux 10
- Fedora 43
Bei früheren Versionen wird die EFI-Partition nicht in RAID gespiegelt; es werden mehrere ESPs erstellt, eines pro Disk. Es wird jedoch jeweils nur ein ESP gemountet. Das ESP wird unter /boot/efi gemountet, und die Disk, auf der es gemountet ist, wird beim Booten von Linux ausgewählt.
Mit dem Befehl lsblk können Sie überprüfen, ob Ihre Partition Teil einer RAID-Konfiguration ist.
Aus den obigen Ergebnissen geht hervor, dass nur eine EFI-Systempartition unter /boot/efi gemountet ist. Die ESPs sind daher nicht gespiegelt.
Aus den obigen Ergebnissen geht hervor, dass beide EFI-Systempartitionen unter /boot/efi gemountet sind. Sie sind daher in RAID gespiegelt.
Ändert sich der Inhalt der EFI-Systempartition regelmäßig?
Im Allgemeinen ändert sich der Inhalt dieser Partition nicht wesentlich, er sollte sich nur bei Updates des Bootloaders ändern.
Wenn Ihre EFI-Partition jedoch nicht gespiegelt ist, empfehlen wir Ihnen, ein automatisches oder manuelles Skript auszuführen, um alle ESPs zu synchronisieren, sodass sie alle die gleichen aktuellen Dateien enthalten. Auf diese Weise kann der Server bei einem Ausfall des Laufwerks, auf dem diese Partition gemountet ist, auf dem ESP eines der anderen Laufwerke neu gestartet werden.
Was passiert, wenn die primäre Disk (mit der gemounteten EFI-Systempartition) ausfällt?
Wenn Ihre ESP nicht gespiegelt ist, kann Folgendes passieren:
Beachten Sie, dass wir im Folgenden die häufigsten Fälle beispielhaft erläutern, es jedoch mehrere andere Gründe gibt, warum ein Server nach einem Diskaustausch nicht im normalen Modus startet.
Fall 1 - Es gab keine Änderungen oder größeren Updates (z. B. GRUB) am Betriebssystem.
- Der Server kann im normalen Modus starten, und Sie können mit der RAID-Wiederherstellung fortfahren.
- Der Server kann nicht im normalen Modus starten. Verwenden Sie die Rescue-Modus, um das RAID wiederherzustellen und die EFI-Partition auf der neuen Disk neu zu erstellen.
Fall 2 - Es gab umfangreiche Systemaktualisierungen (z. B. GRUB) und die ESPs wurden synchronisiert.
- Der Server kann im normalen Modus starten, da alle ESPs auf dem neuesten Stand sind und die RAID-Wiederherstellung im normalen Modus durchgeführt werden kann.
- Der Server kann nicht im normalen Modus starten. Verwenden Sie die Rescue-Modus, um das RAID wiederherzustellen und die EFI-Partition auf der neuen Disk neu zu erstellen.
Fall 3 - Es gab größere Systemaktualisierungen (z. B. GRUB) und die ESP-Partitionen wurden nicht synchronisiert.
- Der Server kann nicht im normalen Modus gestartet werden. Verwenden Sie die Rescue-Modus, um das RAID neu aufzubauen, die EFI-Systempartition auf der neuen Disk neu zu erstellen und den Bootloader (z. B. GRUB) neu zu installieren.
- Der Server kann im normalen Modus gestartet werden (z. B. wenn das Betriebssystem aktualisiert wurde, die GRUB-Version jedoch unverändert geblieben ist), sodass Sie mit dem Neuaufbau des RAID fortfahren können.
In einigen Fällen kann das Booten von einem veralteten ESP fehlschlagen. Beispielsweise kann ein umfangreiches GRUB-Update dazu führen, dass die GRUB-Binärdatei im ESP mit neueren GRUB-Modulen in der Partition /boot nicht mehr kompatibel ist.
Wie kann ich meine EFI-Systempartitionen synchronisieren und wie oft sollte ich sie synchronisieren?
Wenn Ihr ESP nicht gespiegelt ist, beachten Sie Folgendes:
Der Vorgang kann je nach Betriebssystem unterschiedlich sein. Ubuntu kann beispielsweise mehrere EFI-Systempartitionen bei jedem GRUB-Update synchronisieren, ist jedoch das einzige Betriebssystem, das dies tut. Wir empfehlen Ihnen, die offizielle Dokumentation Ihres Betriebssystems zu konsultieren, um zu erfahren, wie Sie ESPs verwalten können.
In dieser Anleitung wird das Betriebssystem Debian verwendet.
Wir empfehlen, Ihre ESPs regelmäßig oder nach jedem größeren System-Update zu synchronisieren. Standardmäßig enthalten alle EFI-Systempartitionen nach der Installation dieselben Dateien. Nach einem größeren System-Update ist jedoch eine Synchronisierung der ESPs erforderlich, um sicherzustellen, dass der Inhalt auf dem neuesten Stand bleibt.
Das Ausführen eines Skripts ist eine effektive Methode, um Ihre Partitionen regelmäßig zu synchronisieren. Nachstehend finden Sie ein Skript, mit dem Sie Ihre ESPs manuell synchronisieren können. Alternativ können Sie ein automatisiertes Skript einrichten, um sie täglich oder bei jedem Systemstart zu synchronisieren.
Bevor Sie das Skript ausführen, stellen Sie sicher, dass rsync auf Ihrem System installiert ist:
Debian/Ubuntu
CentOS, Red Hat und Fedora
Um ein Skript unter Linux auszuführen, benötigen Sie eine ausführbare Datei:
- Beginnen Sie damit, eine .sh-Datei in einem Verzeichnis Ihrer Wahl zu erstellen, wobei Sie
script-namedurch einen Namen Ihrer Wahl ersetzen:
- Öffnen Sie die Datei mit einem Texteditor und fügen Sie die folgenden Zeilen hinzu:
Speichern Sie die Datei und beenden Sie den Editor.
- Machen Sie das Skript ausführbar:
- Führen Sie das Skript aus:
- Wenn Sie sich nicht im richtigen Verzeichnis befinden:
Wenn das Skript ausgeführt wird, wird der Inhalt des gemounteten ESP mit den anderen synchronisiert. Anschließend können Sie jede nicht gemountete EFI-Partition am Mountpunkt /var/lib/grub/esp mounten, um auf deren Inhalt zuzugreifen.
Simulieren eines Diskausfalls
Nachdem wir nun über die erforderlichen Informationen verfügen, können wir einen Diskausfalls simulieren. In diesem Beispiel lassen wir die primäre Disk nvme0n1 ausfallen (beachten Sie, dass dies die Disk mit dem gemounteten ESP ist).
Die bevorzugte Methode hierzu ist die Nutzung des OVHcloud Rescue-Modus.
Starten Sie den Server im Rescue-Modus neu und melden Sie sich mit den bereitgestellten Anmeldedaten an.
Um eine Disk aus dem RAID zu entfernen, markieren Sie sie zunächst als Failed (Ausgefallen) und entfernen Sie dann ihre Partitionen aus den RAID-Arrays.
Note: Dies ist nur ein Beispiel; passen Sie die Befehle an Ihre eigene Konfiguration an.
Aus der obigen Ausgabe ergibt sich, dass nvme0n1 aus zwei Partitionen besteht, die sich im RAID befinden, nämlich nvme0n1p2 und nvme0n1p3.
Entfernen der defekten Disk
Zunächst markieren wir die Partitionen nvme0n1p2 und nvme0n1p3 als ausgefallen:
Als Nächstes führen wir den Befehl cat /proc/mdstat aus:
Wie oben gezeigt, weist das [F] neben den Partitionen darauf hin, dass die Disk ausgefallen oder defekt ist.
Als Nächstes entfernen wir diese Partitionen aus den RAID-Arrays, um die Disk vollständig aus dem RAID zu entfernen.
Der RAID-Status sollte nun wie folgt aussehen:
Jetzt werden nur noch zwei Partitionen in den RAID-Arrays angezeigt. Wir haben die Disk nvme0n1 erfolgreich ausgefallen lassen.
Um eine Disk zu erhalten, die einer leeren Disk ähnelt, führen wir den folgenden Befehl auf jeder Partition und anschließend auf der Disk aus:
Die Disk erscheint nun als neues, leeres Laufwerk:
Um sicherzustellen, dass die Disk erfolgreich "gelöscht" wurde:
Weitere Informationen zum Vorbereiten und Anfordern eines Disktauschs finden Sie in dieser Anleitung.
Wenn Sie zusätzlich den folgenden Befehl ausführen, erhalten Sie weitere Details zu den RAID-Arrays:
Wir können nun mit dem Austausch der Disk und der Wiederherstellung des RAID-Verbunds fortfahren.
Wiederherstellung des RAID (mit nicht gespiegeltem ESP)
Dieser Prozess kann je nach installiertem Betriebssystem auf Ihrem Server variieren. Wir empfehlen Ihnen, die offizielle Dokumentation Ihres Betriebssystems zu konsultieren, um auf die richtigen Befehle zugreifen zu können.
Wenn Ihr Server nach dem Austausch der Disk im normalen Modus starten kann, fahren Sie einfach mit den Schritten aus diesem Abschnitt fort, wenn Ihre EFI-Systempartition nicht gespiegelt ist, oder mit den Schritten aus diesem Abschnitt, wenn Ihre EFI-Systempartition gespiegelt ist.
Wiederherstellung des RAIDs nach Austausch der primären Disk (Rescue-Modus)
Nachdem die Disk ersetzt wurde, ist der nächste Schritt, die Partitionstabelle von der intakten Disk (in diesem Beispiel nvme1n1) auf die neue (nvme0n1) zu kopieren.
Für GPT-Partitionen
Der Befehl sollte in diesem Format lauten: sgdisk -R /dev/neue Disk /dev/intakte Disk.
Beispiel:
Führen Sie lsblk aus, um sicherzustellen, dass die Partitionstabellen ordnungsgemäß kopiert wurden:
Als Nächstes randomisieren Sie die GUID der neuen Disk, um GUID-Konflikte mit anderen Disks zu vermeiden:
Wenn Sie die folgende Meldung erhalten:
Führen Sie einfach den Befehl partprobe aus.
Als Nächstes bauen wir das RAID-Array neu auf. Der folgende Codeausschnitt zeigt, wie die neuen Partitionen (nvme0n1p2 und nvme0n1p3) wieder zum RAID-Array hinzugefügt werden.
Um den Rebuild-Prozess zu prüfen:
Sobald die RAID-Wiederherstellung abgeschlossen ist, führen Sie den folgenden Befehl aus, um sicherzustellen, dass die Partitionen ordnungsgemäß zum RAID hinzugefügt wurden:
Basierend auf den oben genannten Ergebnissen wurden die Partitionen auf der neuen Disk korrekt zum RAID hinzugefügt. Die EFI-Systempartition und die SWAP-Partition (in einigen Fällen) wurden jedoch nicht dupliziert, was normal ist, da sie nicht im RAID enthalten sind.
Die oben genannten Beispiele illustrieren lediglich die notwendigen Schritte anhand einer Standard-Serverkonfiguration. Die Informationen in der Ausgabetabelle hängen von der Hardware Ihres Servers und seinem Partitionsschema ab. Bei Unsicherheiten konsultieren Sie die Dokumentation Ihres Betriebssystems.
Wenn Sie professionelle Unterstützung bei der Server-Administration benötigen, beachten Sie die Details im Abschnitt Weiterführende Informationen dieser Anleitung.
Wiederherstellen der EFI-Systempartition
Um die EFI-Systempartition auf der neuen Disk wiederherzustellen, müssen wir nvme0n1p1 formatieren und anschließend den Inhalt der fehlerfreien Partition (in unserem Beispiel: nvme1n1p1) darauf replizieren.
Wir gehen davon aus, dass beide Partitionen synchronisiert wurden und aktuelle Dateien enthalten.
Wenn ein größeres System-Update wie Kernel oder GRUB durchgeführt wurde und beide Partitionen nicht synchronisiert wurden, lesen Sie diesen Abschnitt, sobald Sie die neue EFI-Systempartition erstellt haben.
Formatiere zuerst die Partition:
Als Nächstes benennen Sie die Partition als EFI_SYSPART (diese Benennung ist spezifisch für OVHcloud):
Als Nächstes duplizieren Sie den Inhalt von nvme1n1p1 nach nvme0n1p1.
Beginnen Sie damit, zwei Ordner zu erstellen, in diesem Beispiel mit den Namen "old" und "new":
Mounten Sie nvme1n1p1 im Ordner "old” und nvme0n1p1 im Ordner "new", um die Unterscheidung zu treffen:
Kopieren Sie die Dateien aus dem Ordner "old" in den Ordner "new":
Sobald dies erledigt ist, hängen Sie beide Partitionen aus:
Als Nächstes hängen Sie die Partition, die das Stammverzeichnis des Betriebssystems enthält, unter /mnt ein. In diesem Beispiel ist diese Partition md3.
Hängen Sie die folgenden Verzeichnisse ein, um sicherzustellen, dass alle in der chroot-Umgebung vorgenommenen Änderungen korrekt funktionieren:
Verwenden Sie anschließend den Befehl chroot, um auf den Einhängepunkt zuzugreifen und zu überprüfen, ob das neue ESP ordnungsgemäß erstellt wurde und das System beide ESPs erkennt:
Um die ESP-Partitionen anzuzeigen, führen Sie den Befehl blkid -t LABEL=EFI_SYSPART aus:
Die Ergebnisse zeigen, dass das neue ESP korrekt erstellt und das LABEL ordnungsgemäß angewendet wurde.
Beenden Sie anschließend die chroot-Umgebung:
Als Nächstes lesen Sie diesen Abschnitt, um die SWAP-Partition neu zu erstellen (falls zutreffend).
RAID mit nicht synchronisierten ESPs nach größeren Systemaktualisierungen neu erstellen (GRUB)
Diesen Abschnitt aufklappen
Befolgen Sie die Schritte in diesem Abschnitt nur, wenn sie auf Ihren Fall zutreffen.
Wenn die primäre Disk ausgetauscht wird, während sie EFI-Systempartitionen enthält, die nach größeren Systemaktualisierungen, die GRUB verändert haben, nicht synchronisiert wurden, kann das Booten von einer der sekundären Disks mit einer veralteten ESP fehlschlagen.
In diesem Fall müssen Sie neben dem Wiederherstellen des RAID und dem Neuerstellen der EFI-Systempartition im Rescue-Modus auch GRUB darauf neu installieren.
Sobald die ESP erstellt wurde (wie oben beschrieben) und das System beide Partitionen erkennt, erstellen Sie noch in der choot-Umgebung den Ordner /boot/efi, um die neue EFI-Systempartition nvme0n1p1 zu mounten:
Als nächstes installieren Sie den GRUB-Bootloader neu:
Führen Sie anschließend den folgenden Befehl aus:
Beenden Sie anschließend die chroot-Umgebung:
Lesen Sie anschließend diesen Abschnitt, um die SWAP-Partition neu zu erstellen (falls zutreffend).
Wiederherstellung des RAID nach Austausch der primären Disk (normaler Modus)
Diesen Abschnitt aufklappen
Wenn Ihr Server nach dem Austausch der primären Disk im normalen Modus starten kann, führen Sie die folgenden Schritte aus, um das RAID neu aufzubauen.
Kopieren Sie nach dem Austausch der Disk die Partitionstabelle von der fehlerfreien Disk (in diesem Beispiel "nvme1n1") auf die neue Disk ("nvme0n1").
Für GPT-Partitionen
Der Befehl muss folgendes Format haben: sgdisk -R /dev/neue Disk /dev/intakte Disk.
Als Nächstes randomisieren Sie die GUID der neuen Disk, um GUID-Konflikte mit anderen Disks zu vermeiden:
Wenn Sie die folgende Meldung erhalten:
Führen Sie einfach den Befehl partprobe aus. Wenn Sie die neu erstellten Partitionen immer noch nicht sehen können (z. B. mit lsblk), müssen Sie den Server neu starten, bevor Sie fortfahren können.
Anschließend fügen wir die Partitionen zum RAID hinzu:
Verwenden Sie den folgenden Befehl, um den RAID-Wiederaufbau zu überwachen:
Sobald der Wiederaufbau abgeschlossen ist, erstellen Sie die EFI-Systempartition auf der neuen Disk neu.
- Stellen Sie zunächst sicher, dass die erforderlichen Tools installiert sind:
Debian und Ubuntu
CentOS
- Formatieren Sie die Partition. In unserem Beispiel
nvme0n1p1:
- Benennen Sie die Partition als
EFI_SYSPART(diese Benennung ist spezifisch für OVHcloud):
Anschließend synchronisieren Sie beide Partitionen mithilfe des in dieser Anleitung bereitgestellten Skripts.
- Überprüfen Sie, ob die neue EFI-Systempartition ordnungsgemäß erstellt wurde und vom System erkannt wird:
Als Nächstes lesen Sie diesen Abschnitt, um die SWAP-Partition neu zu erstellen (falls zutreffend).
Wiederherstellung des RAID (mit gespiegeltem ESP)
Diesen Abschnitt aufklappen
Der Wiederaufbau des RAID mit gespiegelten Partitionen ist einfacher: Kopieren Sie einfach die Daten von der fehlerfreien Disk auf die neue Disk und erstellen Sie die [SWAP]-Partition neu (falls zutreffend).
Aus den obigen Abbildungen geht hervor, dass der RAID-Status nach einem Disknausfall wie folgt aussehen sollte:
Nach dem Austausch der Disk besteht der erste Schritt darin, die Partitionstabelle von der intakten Disk (in diesem Beispiel nvme1n1) auf die neue Disk (nvme0n1) zu kopieren.
Für GPT-Partitionen
Der Befehl muss folgendes Format haben: sgdisk -R /dev/neue Disk /dev/intakte Disk.
In unserem Beispiel:
Führen Sie lsblk aus, um sicherzustellen, dass die Partitionstabellen ordnungsgemäß kopiert wurden:
Als Nächstes randomisieren Sie die GUID der neuen Disk, um GUID-Konflikte mit anderen Disks zu vermeiden:
Wenn Sie die folgende Meldung erhalten:
Führen Sie einfach den Befehl partprobe aus.
Jetzt können wir das RAID-Array neu erstellen. Der folgende Codeausschnitt zeigt, wie Sie die neuen Partitionen (nvme0n1p1, nvme0n1p2 und nvme0n1p3) wieder zum RAID-Array hinzufügen.
So überprüfen Sie den Wiederaufbauprozess:
Sobald der Neuaufbau abgeschlossen ist, führen Sie den folgenden Befehl aus, um sicherzustellen, dass die Partitionen ordnungsgemäß zum RAID hinzugefügt wurden:
Anschließend lesen Sie diesen Abschnitt, um die SWAP-Partition neu zu erstellen (falls zutreffend).
Aus den obigen Abbildungen geht hervor, dass der RAID-Status nach einem Disknausfall wie folgt aussehen sollte:
Sobald die Disk ausgetauscht wurde, kopieren Sie die Partitionstabelle von der intakten Disk (in diesem Beispiel nvme1n1) auf die neue Disk (nvme0n1).
Für GPT-Partitionen
Der Befehl muss folgendes Format haben: sgdisk -R /dev/neue Disk /dev/intakte Disk.
Als nächstes sollten Sie die GUID der neuen Disk randomisieren, um GUID-Konflikte mit anderen Disks zu vermeiden:
Wenn Sie die folgende Meldung erhalten:
Führen Sie einfach den Befehl partprobe aus. Wenn Sie die neu erstellten Partitionen immer noch nicht sehen können (z. B. mit lsblk), müssen Sie den Server neu starten, bevor Sie fortfahren.
Fügen Sie als Nächstes die Partitionen zum RAID hinzu:
Verwenden Sie den folgenden Befehl, um den RAID-Wiederaufbau zu überwachen:
Sobald der RAID-Wiederaufbau abgeschlossen ist, lesen Sie diesen Abschnitt, um die SWAP-Partition neu zu erstellen (falls zutreffend).
Label zur SWAP-Partition hinzufügen (falls zutreffend)
Diesen Abschnitt aufklappen
Erstellen Sie außerhalb der chroot-Umgebung die [SWAP]-Partition nvme0n1p4 neu und fügen Sie die Bezeichnung swap-nvmenxxx hinzu:
Überprüfen Sie, ob die Bezeichnung korrekt angewendet wurde:
Anschließend greifen wir erneut auf die Umgebung chroot zu:
Wir rufen die UUID der beiden SWAP-Partitionen ab:
Anschließend ersetzen wir die alte UUID der SWAP-Partition (nvme0n1p4) durch die neue in der Datei /etc/fstab:
Beispiel:
Basierend auf den obigen Ergebnissen lautet die alte UUID b7b5dd38-9b51-4282-8f2d-26c65e8d58ec und muss durch die neue UUID b3c9e03a-52f5-4683-81b6-cc10091fcd15 ersetzt werden. Stellen Sie sicher, dass Sie die richtige UUID ersetzen.
Anschließend überprüfen wir mit dem folgenden Befehl, ob alles korrekt eingebunden ist:
Wir aktivieren die SWAP-Partition:
Wir verlassen die Umgebung chroot mit exit und laden das System neu:
Wir unmounten alle Disks:
Um die SWAP-Partition neu zu erstellen, führen Sie die folgenden Schritte aus:
- Erstellen Sie zunächst die Partition auf nvme0n1p4 neu und fügen Sie die Bezeichnung swap-nvme0n1p4 hinzu:
- Wir rufen die UUIDs beider SWAP-Partitionen ab:
- Wir ersetzen die alte UUID der SWAP-Partition (nvme0n1p4) durch die neue in
/etc/fstab:
Beispiel:
Basierend auf den obigen Ergebnissen ist die alte UUID b7b5dd38-9b51-4282-8f2d-26c65e8d58ec und sollte durch die neue b3c9e03a-52f5-4683-81b6-cc10091fcd15 ersetzt werden.
Stellen Sie sicher, dass Sie die richtige UUID ersetzen.
Als nächstes führen wir den folgenden Befehl aus, um die SWAP-Partition zu aktivieren:
Als nächstes laden wir das System neu:
Damit ist die RAID-Wiederherstellung abgeschlossen.
Weiterführende Informationen
Kontaktieren Sie für spezialisierte Dienstleistungen (SEO, Web-Entwicklung etc.) die OVHcloud Partner.
Wenn Sie Hilfe bei der Nutzung und Konfiguration Ihrer OVHcloud Lösungen benötigen, beachten Sie unsere Support-Angebote.
Wenn Sie Schulungen oder technische Unterstützung bei der Implementierung unserer Lösungen benötigen, wenden Sie sich an Ihren Vertriebsmitarbeiter oder klicken Sie auf diesen Link, um einen Kostenvoranschlag zu erhalten und eine persönliche Analyse Ihres Projekts durch unsere Experten des Professional Services Teams anzufordern.
Treten Sie unserer User Community bei.