Zarządzanie i odbudowanie oprogramowania RAID na serwerach w trybie rozruchu legacy (BIOS)
Informacje o tłumaczeniu
Tłumaczenie zostało wygenerowane automatycznie przez system naszego partnera SYSTRAN. W niektórych przypadkach mogą wystąpić nieprecyzyjne sformułowania, na przykład w tłumaczeniu nazw przycisków lub szczegółów technicznych. W przypadku jakichkolwiek wątpliwości zalecamy zapoznanie się z angielską/francuską wersją przewodnika. Jeśli chcesz przyczynić się do ulepszenia tłumaczenia, kliknij przycisk “Zgłoś propozycję modyfikacji” na tej stronie.
Wprowadzenie
Redundantny zbiór niezależnych dysków (RAID) to technologia, która zmniejsza utratę danych na serwerze, replikując dane na dwóch lub więcej dyskach.
Domyślny poziom RAID dla instalacji serwerów OVHcloud to RAID 1, który podwaja przestrzeń zajmowaną przez dane, skutecznie zmniejszając wykorzystywalną przestrzeń dyskową.
Ta instrukcja wyjaśnia, jak zarządzać i odbudować oprogramowanie RAID w przypadku wymiany dysku na serwerze w trybie rozruchu legacy (BIOS).
Zanim zaczniemy, zwróć uwagę, że ta instrukcja koncentruje się na Serwerach dedykowanych, które używają trybu rozruchu legacy (BIOS). Jeśli Twój serwer używa trybu UEFI (nowsze płyty główne), odwiedź tę instrukcję Zarządzanie i odbudowanie oprogramowania RAID na serwerach w trybie rozruchu UEFI.
Aby sprawdzić, czy serwer działa w trybie legacy BIOS czy UEFI, uruchom następujące polecenie:
Wymagania początkowe
- Serwer Dedykowany z konfiguracją oprogramowania RAID
- Dostęp administracyjny (sudo) do serwera przez SSH
- Zrozumienie RAID i partycji
W praktyce
Kiedy zakupisz nowy serwer, możesz czuć potrzebę wykonania szeregu testów i działań. Jednym z takich testów może być symulacja awarii dysku, aby zrozumieć proces odbudowy RAID i przygotować się na wypadek, gdyby to się kiedykolwiek zdarzyło.
Omówienie treści
Podstawowe informacje
W sesji wiersza poleceń wpisz poniższe polecenie, aby określić bieżący stan RAID:
To polecenie pokazuje nam, że mamy dwa urządzenia RAID oprogramowania obecnie skonfigurowane, z md4 będącym największym z nich. Urządzenie RAID md4 składa się z dwóch partycji, które są znane jako nvme0n1p4 i nvme1n1p4.
[UU] oznacza, że wszystkie dyski działają normalnie. _ wskazuje na uszkodzony dysk.
Jeśli masz serwer z dyskami SATA, otrzymasz następujące wyniki:
Chociaż to polecenie zwraca nasze woluminy RAID, nie podaje ono rozmiaru samych partycji. Informacje te można znaleźć za pomocą polecenia fdisk -l:
Polecenie fdisk -l pozwala również zidentyfikować typ partycji. Jest to ważna informacja, gdy chodzi o odbudowanie RAID w przypadku awarii dysku.
Dla partycji GPT, linia 6 będzie wyświetlać: Disklabel type: gpt. Ta informacja może być widoczna tylko, gdy serwer działa w trybie normalnym.
Zgodnie z wynikami fdisk -l, możemy stwierdzić, że /dev/md2 składa się z 888,8 GB, a /dev/md4 zawiera 973,5 GB.
Alternatywnie, polecenie lsblk oferuje inny widok partycji:
Zwróć uwagę na urządzenia, partycje i punkty montowania, ponieważ jest to ważne, szczególnie po wymianie dysku. Pozwoli Ci to sprawdzić, czy partycje są prawidłowo zamontowane w odpowiednich punktach montowania na nowym dysku.
W naszym przykładzie mamy:
- Partycje tworzące md2 (
/): sda2 i sdb2. - Partycje tworzące md4 (
/home): sda4 i sdb4. - Partycje swap: sda3 i sdb3.
- Partycje rozruchowe BIOS: sda1 i sdb1.
Partycja sda5 jest config drive, tj. woluminem tylko do odczytu, który dostarcza serwerowi jego wstępnych danych konfiguracyjnych. Jest odczytywany tylko raz podczas pierwszego uruchomienia i może być usunięty po tym czasie.
Symulowanie awarii dysku
Teraz, gdy mamy wszystkie niezbędne informacje, możemy zasymulować awarię dysku. W tym przykładzie zasymulujemy awarię dysku sda.
Preferowany sposób to wykonanie tego za pośrednictwem środowiska ratunkowego OVHcloud.
Najpierw uruchom serwer w trybie ratunkowym i zaloguj się przy użyciu dostarczonych poświadczeń.
Aby usunąć dysk z RAID, pierwszym krokiem jest oznaczenie go jako Failed i usunięcie partycji z ich odpowiednich tablic RAID.
Z powyższego wyniku wynika, że sda składa się z dwóch partycji w RAID, które to sda2 i sda4.
Usuwanie uszkodzonego dysku
Najpierw oznaczamy partycje sda2 i sda4 jako Failed.
Teraz zasymulowaliśmy awarię RAID, a po uruchomieniu polecenia cat /proc/mdstat mamy następujące dane wyjściowe:
Jak widać powyżej, [F] obok partycji wskazuje, że dysk uległ awarii lub jest uszkodzony.
Następnie usuwamy te partycje z tablic RAID.
Aby upewnić się, że otrzymamy dysk podobny do pustego dysku, używamy poniższego polecenia. Zamień sda na swoje własne wartości:
Dysk pojawia się teraz jako nowy i "pusty":
Jeśli wykonamy następujące polecenie, zobaczymy, że nasz dysk został prawidłowo "wyczyszczony":
Stan naszego RAID powinien teraz wyglądać następująco:
Powyższe wyniki pokazują, że w macierzy RAID pojawiają się teraz tylko dwie partycje. Dysk sda nie powiódł się i możemy teraz wymienić dysk.
Więcej informacji na temat przygotowywania i żądania wymiany dysku można znaleźć w tym przewodniku.
Poniższe polecenie pozwala uzyskać więcej szczegółowych informacji na temat macierzy RAID:
Odbudowa macierzy RAID
Proces ten może się różnić w zależności od systemu operacyjnego zainstalowanego na serwerze. Zalecamy zapoznanie się z oficjalną dokumentacją systemu operacyjnego, aby uzyskać informacje na temat odpowiednich poleceń.
W przypadku większości serwerów z macierzą RAID oprogramowania po wymianie dysku serwer może uruchomić się w trybie normalnym (na sprawnym dysku) w celu odbudowy macierzy RAID. Jeśli jednak serwer nie uruchomi się w trybie normalnym, zostanie ponownie uruchomiony w trybie ratunkowym w celu odbudowy macierzy RAID.
Odbudowa macierzy RAID w trybie normalnym
W naszym przykładzie wymieniliśmy dysk sda.
Po wymianie dysku musimy skopiować tabelę partycji z dysku sprawnego (w tym przykładzie sdb) na nowy (sda).
Polecenie musi mieć następujący format: sgdisk -R /dev/nowy_dysk /dev/zdrowy_dysk.
Polecenie powinno mieć następujący format: sfdisk -d /dev/zdrowy_dysk | sfdisk /dev/nowy_dysk.
Po wykonaniu tej operacji następnym krokiem jest przypisanie losowego identyfikatora GUID do nowego dysku, aby uniknąć konfliktu z identyfikatorami GUID innych dysków:
Jeśli pojawi się następujący komunikat:
Możesz po prostu wykonać polecenie partprobe. Jeśli nadal nie widzisz nowo utworzonych partycji (na przykład za pomocą lsblk), musisz ponownie uruchomić serwer przed kontynuowaniem.
Następnie dodajemy partycje do macierzy RAID:
Aby monitorować odbudowę RAID, użyj poniższego polecenia:
Na koniec dodajemy etykietę i montujemy partycję [SWAP] (jeśli dotyczy).
Aby dodać etykietę do partycji SWAP:
Następnie pobierz UUID obu partycji SWAP:
Zastępujemy stary UUID partycji SWAP (sda4) nowym w pliku /etc/fstab.
Przykład:
Na podstawie powyższych wyników, stary UUID to b7b5dd38-9b51-4282-8f2d-26c65e8d58ec i powinien zostać zastąpiony nowym b3c9e03a-52f5-4683-81b6-cc10091fcd15.
Upewnij się, że zastępujesz poprawny UUID.
Następnie sprawdzamy, czy wszystko zostało poprawnie zamontowane, używając następującego polecenia:
Uruchom poniższe polecenie, aby włączyć partycję SWAP:
Następnie przeładuj system poniższym poleceniem:
W ten sposób skończyliśmy pomyślnie odbudowę RAID.
Odbudowanie RAID w trybie rescue
Jeśli Twój serwer nie może uruchomić się w trybie normalnym po wymianie dysku, zostanie on uruchomiony w trybie ratunkowym przez nasz zespół centrum danych.
W tym przykładzie wymieniamy dysk sdb.
Po wymianie dysku musimy skopiować tablicę partycji z dysku sprawnego (w tym przykładzie sda) na nowy (sdb).
Polecenie powinno mieć następujący format: sgdisk -R /dev/nowy_dysk /dev/zdrowy_dysk
Przykład:
Polecenie powinno mieć ten format: sfdisk -d /dev/zdrowy_dysk | sfdisk /dev/nowy_dysk
Przykład:
Po wykonaniu tego kroku następnym krokiem jest zrandomizowanie GUID nowego dysku, aby uniknąć konfliktów GUID z innymi dyskami:
Jeśli otrzymasz następującą wiadomość:
Możesz po prostu uruchomić polecenie partprobe.
Teraz możemy odbudować tablicę RAID, dodając z powrotem nowe partycje (sdb2 i sdb4):
Użyj polecenia cat /proc/mdstat, aby monitorować odbudowę RAID:
Na koniec dodajemy etykietę i montujemy partycję [SWAP] (jeśli dotyczy).
Po zakończeniu odbudowy RAID montujemy partycję zawierającą korzeń naszego systemu operacyjnego na /mnt. W naszym przykładzie tą partycją jest md2.
Dodajemy etykietę do naszej partycji SWAP za pomocą polecenia:
Następnie montujemy poniższe katalogi, aby upewnić się, że wszystkie operacje w środowisku chroot będą działać poprawnie:
Następnie wchodzimy do środowiska chroot:
Pobieramy UUID obu partycji SWAP:
Przykład:
Następnie zastępujemy stary UUID partycji SWAP (sdb4) nowym w pliku /etc/fstab:
Przykład:
W powyższym przykładzie UUID do zastąpienia to d6af33cf-fc15-4060-a43c-cb3b5537f58a nowym b3c9e03a-52f5-4683-81b6-cc10091fcd15.
Upewnij się, że zastępujesz poprawny UUID.
Następnie upewniamy się, że wszystko zostało poprawnie zamontowane:
Włącz partycję SWAP poniższym poleceniem:
Wyjdź ze środowiska chroot za pomocą exit i przeładuj system:
Odmontuj wszystkie dyski:
W ten sposób pomyślnie zakończyliśmy odbudowę RAID na serwerze i teraz możemy go ponownie uruchomić w trybie normalnym.
Sprawdź również
Dla usług specjalistycznych (SEO, rozwój, itp.), skontaktuj się z partnerami OVHcloud.
Jeśli potrzebujesz pomocy w użyciu i konfiguracji rozwiązań OVHcloud, skorzystaj z naszych ofert wsparcia.
Jeśli potrzebujesz szkoleń lub pomocy technicznej w zakresie wdrażania naszych rozwiązań, skontaktuj się z przedstawicielem handlowym lub kliknij ten link, aby uzyskać wycenę i poprosić naszych ekspertów Professional Services o pomoc w Twoim konkretnym przypadku użycia.
Dołącz do grona naszych użytkowników.
-
Secure Shell (SSH) : un protocole de réseau sécurisé utilisé pour établir des connexions entre un client et un serveur. Il permet d'exécuter des commandes à distance de manière sécurisée. ↩