Verwalten und Neuaufbauen von Software-RAID auf Servern im Legacy-Boot-Modus (BIOS)
Informationen zur Übersetzung
Diese Übersetzung wurde durch unseren Partner SYSTRAN automatisch erstellt. In manchen Fällen können ungenaue Formulierungen verwendet worden sein, z.B. bei der Beschriftung von Schaltflächen oder technischen Details. Bitte ziehen Sie im Zweifelsfall die englische oder französische Fassung der Anleitung zu Rate. Möchten Sie mithelfen, diese Übersetzung zu verbessern? Dann nutzen Sie dazu bitte den Button "Beitragen" auf dieser Seite.
Ziel
Redundant Array of Independent Disks (RAID) ist eine Technologie, die Datenverluste auf einem Server durch die Replikation von Daten auf zwei oder mehr Disks minimiert.
Der Standard-RAID-Level für OVHcloud Serverinstallationen ist RAID 1, der den Speicherplatz Ihrer Daten verdoppelt und somit den nutzbaren Diskspeicher effektiv halbiert.
Diese Anleitung erklärt, wie Sie Software-RAID verwalten und nach einem Diskaustausch auf Ihrem Server im Legacy-Boot-Modus (BIOS) neu aufbauen können.
Beachten Sie, dass diese Anleitung sich auf dedizierte Server bezieht, die den Legacy-Boot-Modus (BIOS) verwenden. Wenn Ihr Server den UEFI-Modus verwendet (neuere Motherboards), konsultieren Sie diese Anleitung: Verwalten und Neuaufbauen von Software-RAID auf Servern im UEFI-Boot-Modus.
Um zu prüfen, ob ein Server im Legacy-BIOS- oder UEFI-Modus läuft, führen Sie den folgenden Befehl aus:
Voraussetzungen
- Sie haben einen Dedicated Server mit Software-RAID-Konfiguration.
- Sie haben administrativen Zugriff (sudo) auf Ihren Server via SSH.
- Sie haben Grundkenntnisse zu RAID und Partitionen.
In der praktischen Anwendung
Wenn Sie einen neuen Server bestellt und installiert haben, können Sie vorab eine Reihe von Tests durchführen. Ein solcher Test könnte darin bestehen, einen Diskausfall zu simulieren, um den RAID-Wiederherstellungsprozess zu verstehen und sich darauf vorzubereiten, falls dies tatsächlich eintritt.
Inhaltsübersicht
Grundlegende Informationen
In einer Befehlszeilensitzung geben Sie den folgenden Code ein, um den aktuellen RAID-Status zu ermitteln:
Dieser Befehl zeigt uns, dass wir zwei Disks im Software-RAID eingerichtet haben, wobei md4 das größte ist. Das md4-RAID-Gerät besteht aus zwei Partitionen, die als nvme0n1p4 und nvme1n1p4 bekannt sind.
[UU] bedeutet, dass alle Disks normal funktionieren. Ein _ würde stattdessen eine defekte Disk anzeigen.
Wenn Sie einen Server mit SATA-Disks haben, erhalten Sie die folgenden Ergebnisse:
Dieser Befehl gibt zwar unsere RAID-Volumes zurück, sagt uns jedoch nichts über die Größe der Partitionen selbst. Diese Information können wir mit fdisk -l ermitteln:
Der Befehl fdisk -l erlaubt es Ihnen auch, den Typ Ihrer Partition zu identifizieren. Dies ist eine wichtige Information, wenn es darum geht, Ihr RAID bei einem Diskausfall wiederherzustellen.
Für GPT-Partitionen wird in Zeile 6 angezeigt: Disklabel type: gpt. Diese Information ist nur sichtbar, wenn sich der Server im normalen Modus befindet.
Basierend auf den Ergebnissen von fdisk -l können wir sehen, dass /dev/md2 aus 888,8 GB besteht und /dev/md4 973,5 GB enthält.
Alternativ bietet der Befehl lsblk eine andere Ansicht der Partitionen:
Notieren Sie sich die Geräte, Partitionen und ihre Mountpoints, da diese Informationen besonders wichtig sind, vor allem nach dem Austausch einer Disk. So können Sie überprüfen, ob die Partitionen korrekt auf ihren jeweiligen Mountpoints auf der neuen Disk eingehängt sind.
In unserem Beispiel haben wir:
- Partitionen von md2 (
/): sda2 und sdb2. - Partitionen von md4 (
/home): sda4 und sdb4. - Swap-Partitionen: sda3 und sdb3.
- BIOS-Boot-Partitionen: sda1 und sdb1.
Die Partition sda5 ist ein Config Drive, d.h. ein Read-only-Volume, das dem Server seine anfänglichen Konfigurationsdaten bereitstellt. Es wird nur einmal beim initialen Boot gelesen und kann danach entfernt werden.
Simulieren eines Diskausfalls
Nachdem wir nun alle notwendigen Informationen haben, können wir einen Diskausfall simulieren. In diesem Beispiel simulieren wir den Ausfall der Disk sda.
Die bevorzugte Methode hierzu ist die Nutzung des OVHcloud Rescue-Modus.
Starten Sie zunächst den Server im Rescue-Modus neu und melden Sie sich mit den bereitgestellten Anmeldeinformationen an.
Um eine Disk aus dem RAID zu entfernen, markieren Sie sie zunächst als Failed und entfernen die Partitionen aus ihren jeweiligen RAID-Arrays.
Aus der obigen Ausgabe ergibt sich, dass sda aus zwei Partitionen besteht, die im RAID sind, nämlich sda2 und sda4.
Entfernen der fehlerhaften Disk
Zunächst markieren wir die Partitionen sda2 und sda4 als fehlerhaft.
Wir haben nun einen RAID-Ausfall simuliert. Wenn wir den Befehl cat /proc/mdstat ausführen, erhalten wir die folgende Ausgabe:
Wie wir oben sehen können, zeigt das [F] neben den Partitionen an, dass die Disk fehlerhaft ist oder ausfällt.
Als nächstes entfernen wir diese Partitionen aus den RAID-Arrays.
Um sicherzustellen, dass wir eine Disk erhalten, die einem leeren Laufwerk ähnelt, verwenden wir den folgenden Befehl. Ersetzen Sie sda durch Ihre eigenen Werte:
Die Disk erscheint nun als neues, leeres Laufwerk:
Wenn wir den folgenden Befehl ausführen, sehen wir, dass unsere Disk erfolgreich "gelöscht" wurde:
Unser RAID-Status sollte nun wie folgt aussehen:
Aus den oben genannten Ergebnissen können wir sehen, dass nun nur noch zwei Partitionen in den RAID-Arrays erscheinen. Wir haben die Disk sda erfolgreich simuliert und können nun mit dem Diskaustausch fortfahren.
Für weitere Informationen dazu, wie Sie einen Diskaustausch vorbereiten und anfordern können, konsultieren Sie diese Anleitung.
Wenn Sie den folgenden Befehl ausführen, können Sie weitere Details zu den RAID-Arrays erhalten:
Neuaufbau des RAID
Dieser Vorgang kann je nach dem auf Ihrem Server installierten Betriebssystem variieren. Wir empfehlen Ihnen, die offizielle Dokumentation Ihres Betriebssystems zu konsultieren, um die entsprechenden Befehle zu erhalten.
Bei den meisten Servern mit Software-RAID kann der Server nach einem Diskaustausch im normalen Modus (auf der intakten Disk) starten, um das RAID neu aufzubauen. Wenn der Server jedoch nicht im normalen Modus starten kann, wird er im Rescue-Modus neu gestartet, um den RAID-Neuaufbau durchzuführen.
Neuaufbau des RAIDs im normalen Modus
In unserem Beispiel haben wir die Disk sda ersetzt.
Nachdem die Disk ersetzt wurde, müssen wir die Partitionstabelle von der gesunden Disk (in diesem Beispiel sdb) auf die neue (sda) kopieren.
Der Befehl sollte in diesem Format lauten: sgdisk -R /dev/neue_disk /dev/gesunde_disk.
Der Befehl sollte in diesem Format lauten: sfdisk -d /dev/gesunde_disk | sfdisk /dev/neue_disk.
Nachdem dies erledigt ist, ist der nächste Schritt, die GUID der neuen Disk zu randomisieren, um GUID-Konflikte mit anderen Disks zu vermeiden:
Wenn Sie die folgende Meldung erhalten:
Sie können einfach den Befehl partprobe ausführen. Wenn Sie immer noch die neu erstellten Partitionen nicht sehen können (z. B. mit lsblk), müssen Sie den Server vor der Fortsetzung neu starten.
Als nächstes fügen wir die Partitionen dem RAID hinzu:
Verwenden Sie den folgenden Befehl, um den RAID-Neuaufbau zu überwachen:
Zuletzt fügen wir eine Bezeichnung hinzu und mounten die [SWAP]-Partition (falls zutreffend).
Um eine Bezeichnung für die SWAP-Partition hinzuzufügen:
Als nächstes rufen Sie die UUIDs beider SWAP-Partitionen ab:
Wir ersetzen die alte UUID der SWAP-Partition (sda4) durch die neue in /etc/fstab.
Beispiel:
Basierend auf den oben genannten Ergebnissen lautet die alte UUID b7b5dd38-9b51-4282-8f2d-26c65e8d58ec und sollte durch die neue UUID b3c9e03a-52f5-4683-81b6-cc10091fcd15 ersetzt werden.
Stellen Sie sicher, dass Sie die richtige UUID ersetzen.
Als nächstes prüfen wir, ob alles ordnungsgemäß eingehängt ist, mit dem folgenden Befehl:
Führen Sie den folgenden Befehl aus, um die SWAP-Partition zu aktivieren:
Dann laden Sie das System neu mit dem folgenden Befehl:
Wir haben nun erfolgreich den RAID-Neuaufbau abgeschlossen.
Neuaufbau des RAID im Rescue-Modus
Wenn Ihr Server nach einem Diskaustausch nicht im normalen Modus neu starten kann, wird er von unserem Rechenzentrum-Team im Rescue-Modus neu gestartet.
In diesem Beispiel haben wir die Disk sdb ersetzt.
Nachdem die Disk ersetzt wurde, müssen wir die Partitionstabelle von der intakten Disk (in diesem Beispiel sda) auf die neue (sdb) kopieren.
Der Befehl sollte in diesem Format lauten: sgdisk -R /dev/neue_disk /dev/gesunde_disk
Beispiel:
Der Befehl sollte in diesem Format lauten: sfdisk -d /dev/gesunde_disk | sfdisk /dev/neue_disk
Beispiel:
Nachdem dies erledigt ist, ist der nächste Schritt, die GUID der neuen Disk zu randomisieren, um GUID-Konflikte mit anderen Disks zu vermeiden:
Wenn Sie die folgende Meldung erhalten:
Sie können einfach den Befehl partprobe ausführen.
Wir können nun das RAID-Array neu aufbauen, indem wir die neuen Partitionen (sdb2 und sdb4) wieder hinzufügen:
Verwenden Sie den Befehl cat /proc/mdstat, um den RAID-Neuaufbau zu überwachen:
Zuletzt fügen wir ein Label hinzu und mounten die [SWAP]-Partition (falls zutreffend).
Sobald der RAID-Neuaufbau abgeschlossen ist, mounten wir die Partition mit dem Root-Dateisystem unseres Betriebssystems auf /mnt. In unserem Beispiel ist dies die Partition md2.
Wir fügen die Bezeichnung zu unserer SWAP-Partition mit dem folgenden Befehl hinzu:
Als nächstes mounten wir die folgenden Verzeichnisse, um sicherzustellen, dass jede Manipulation, die wir in der chroot-Umgebung durchführen, ordnungsgemäß funktioniert:
Als nächstes greifen wir auf die chroot-Umgebung zu:
Wir rufen die UUIDs beider SWAP-Partitionen ab:
Beispiel:
Als nächstes ersetzen wir die alte UUID der SWAP-Partition (sdb4) durch die neue in /etc/fstab:
Beispiel:
In unserem obigen Beispiel lautet die zu ersetzende UUID d6af33cf-fc15-4060-a43c-cb3b5537f58a und die neue UUID b3c9e03a-52f5-4683-81b6-cc10091fcd15.
Achten Sie darauf, dass Sie die richtige UUID ersetzen.
Anschließend überprüfen wir mit dem folgenden Befehl, ob alles korrekt eingebunden ist:
Aktivieren Sie die SWAP-Partition mit dem folgenden Befehl:
Wir verlassen die chroot-Umgebung mit exit und laden das System neu:
Wir unmounten alle Disks:
Wir haben nun erfolgreich den RAID-Neuaufbau auf dem Server abgeschlossen und können ihn im normalen Modus neu starten.
Weiterführende Informationen
Kontaktieren Sie für spezialisierte Dienstleistungen (SEO, Web-Entwicklung etc.) die OVHcloud Partner.
Wenn Sie Hilfe bei der Nutzung und Konfiguration Ihrer OVHcloud Lösungen benötigen, beachten Sie unsere Support-Angebote.
Wenn Sie Schulungen oder technische Unterstützung bei der Implementierung unserer Lösungen benötigen, wenden Sie sich an Ihren Vertriebsmitarbeiter oder klicken Sie auf diesen Link, um ein Angebot zu erhalten und unsere Experten des Professional Services Teams zu bitten, Ihren spezifischen Anwendungsfall zu unterstützen.
Treten Sie unserer User Community bei.
-
Secure Shell (SSH) : un protocole de réseau sécurisé utilisé pour établir des connexions entre un client et un serveur. Il permet d'exécuter des commandes à distance de manière sécurisée. ↩