Zarządzanie i odbudowa oprogramowania RAID na serwerach w trybie uruchamiania UEFI
Informacje o tłumaczeniu
Tłumaczenie zostało wygenerowane automatycznie przez system naszego partnera SYSTRAN. W niektórych przypadkach mogą wystąpić nieprecyzyjne sformułowania, na przykład w tłumaczeniu nazw przycisków lub szczegółów technicznych. W przypadku jakichkolwiek wątpliwości zalecamy zapoznanie się z angielską/francuską wersją przewodnika. Jeśli chcesz przyczynić się do ulepszenia tłumaczenia, kliknij przycisk “Zgłoś propozycję modyfikacji” na tej stronie.
Wprowadzenie
Redundant Array of Independent Disks (RAID) to technologia, która zmniejsza utratę danych na serwerze, replikując dane na dwóch lub więcej dyskach.
Domyślny poziom RAID dla instalacji serwerów OVHcloud to RAID 1, który podwaja zajęte przez dane miejsce, skutecznie zmniejszając dostępne miejsce na dysku o połowę.
Ten przewodnik wyjaśnia, jak zarządzać i odbudować oprogramowanie RAID po wymianie dysku na serwerze w trybie uruchamiania UEFI.
Zanim zaczniemy, zwróć uwagę, że ten przewodnik skupia się na Serwerach dedykowanych, które używają UEFI jako trybu uruchamiania. Jest to typowe dla nowoczesnych płyt głównych. Jeśli Twój serwer używa trybu uruchamiania zgodnego (BIOS), odwiedź ten przewodnik: Zarządzanie i odbudowa oprogramowania RAID na serwerach w trybie uruchamiania zgodnym (BIOS).
Aby sprawdzić, czy serwer działa w trybie zgodnym BIOS czy trybie uruchamiania UEFI, uruchom następującą komendę:
Aby uzyskać więcej informacji na temat UEFI, zapoznaj się z poniższym artykułem.
Wymagania początkowe
- Serwer dedykowany z konfiguracją oprogramowania RAID
- Dostęp administracyjny (sudo) do serwera przez SSH
- Zrozumienie RAID, partycji i GRUB
W całym przewodniku używamy pojęć główny dysk i dysk pomocniczy. W tym kontekście:
- Główny dysk to dysk, którego ESP (EFI System Partition) jest zamontowany przez system Linux.
- Dyski pomocnicze to wszystkie inne dyski w RAID.
Instrukcje
Kiedy zakupisz nowy serwer, możesz poczuć potrzebę wykonania szeregu testów i działań. Jednym z takich testów może być symulacja awarii dysku, aby zrozumieć proces odbudowy RAID.
Omówienie treści
- Podstawowe informacje
- Zrozumienie partycji systemu EFI (ESP)
- Symulowanie awarii dysku
- Odbudowa macierzy RAID (z ESP bez dublowania)
- Odbudowa macierzy RAID (z dublowaniem ESP)
- Dodanie etykiety do partycji SWAP (jeśli dotyczy)
Podstawowe informacje
W sesji linii poleceń wpisz następujące polecenie, aby określić bieżący stan RAID:
Z wyników wynika, że obecnie skonfigurowano dwa urządzenia RAID oprogramieniowe, md2 i md3, z md3 będącym większym z nich. md3 składa się z dwóch partycji, nazywanych nvme0n1p3 i nvme1n1p3.
[UU] oznacza, że wszystkie dyski działają normalnie. _ wskazywałby na awaryjny dysk.
W innych przypadkach otrzymasz następujące wyniki:
Wyniki pokazują trzy skonfigurowane urządzenia RAID oprogramieniowe, md1, md2 i md3, z md3 będącym największym z nich. md3 składa się z dwóch partycji, nazywanych nvme0n1p3 i nvme1n1p3.
Jeśli masz serwer z dyskami SATA, otrzymasz następujące wyniki:
Ta komenda pokazuje nasze volume RAID, ale nie pokazuje rozmiarów partycji. Możemy znaleźć tę informację używając fdisk -l:
fdisk -l
Ta komenda może również być używana do zidentyfikowania typu partycji.
Dla partycji GPT, linia 6 pokazuje: Disklabel type: gpt.
Tę informację można zobaczyć tylko wtedy, gdy serwer działa w normalnym trybie.
Kontynuując wyniki, widzimy, że /dev/md2 składa się z 1022 MiB, a /dev/md3 zawiera 474,81 GiB. Jeśli uruchomimy komendę mount, możemy również zrozumieć układ dysk.
Alternatywnie, polecenie lsblk oferuje inny widok partycji:
Ponadto, jeśli uruchomimy lsblk -f, otrzymamy więcej informacji o tych partycjach, takich jak Etykieta i UUID:
Zwróć uwagę na urządzenia, partycje i punkty montażu, ponieważ jest to ważne, zwłaszcza po wymianie dysku. Pozwoli to sprawdzić, czy partycje są poprawnie zamontowane w odpowiednich punktach montażu na nowym dysk.
W naszym przykładzie mamy:
- Dwa tablice RAID:
/dev/md2i/dev/md3. - Partycje należące do RAID: nvme0n1p2, nvme0n1p3, nvme1n1p2 i nvme0n1p3 z punktami montażu
/booti/. - Partycje nie należące do RAID: nvem0n1p1, nvme0n1p4 i nvme1n1p4 z punktami montażu
/boot/efii [SWAP]. - Jedna partycja nie ma punktu montażu: nvme1n1p1.
Partycja nvme0n1p5 jest partycją konfiguracyjną, czyli tylko do odczytu, połączoną z serwerem, która dostarcza mu początkowe dane konfiguracyjne.
Zrozumienie partycji systemu EFI (ESP)
Rozwiń tę sekcję
Co to jest partycja systemu EFI?
Partycja systemu EFI to partycja, która może zawierać programy uruchamiające system operacyjny, menedżery uruchamiające, lub obrazy jądra. Może również zawierać programy narzędziowe systemowe zaprojektowane do uruchamiania przed uruchomieniem systemu operacyjnego, a także pliki danych, takie jak dzienniki błędów.
Czy partycja systemu EFI jest zwierciadlona w RAID?
Od grudnia 2025 tylko następujące wersje systemów operacyjnych zwierciadlują partycję systemu EFI w RAID dla nowych instalacji lub reinstalacji:
- Debian 13
- Proxmox 9
- Ubuntu 25.10
- AlmaLinux i Rocky Linux 10
- Fedora 43
Dla wcześniejszych wersji partycja systemu EFI nie jest zwierciadlona w RAID; tworzone są wiele ESP, po jednym na dysk. Jednak tylko jedno ESP jest zamontowane w danym momencie. ESP jest zamontowane w /boot/efi, a dysk, na którym znajduje się, jest wybierany przez system Linux przy uruchamianiu.
Możesz użyć komendy lsblk, aby potwierdzić, czy Twoja partycja jest częścią konfiguracji RAID.
Z powyższych wyników wynika, że tylko jedna partycja systemowa EFI jest zamontowana w /boot/efi. Dlatego też partycje ESP nie jest dublowane.
Z powyższych wyników wynika, że obie partycje systemu EFI są zamontowane w katalogu /boot/efi. Są one zatem dublowane w macierzy RAID.
Czy zawartość partycji systemu EFI zmienia się regularnie?
Zazwyczaj zawartość tej partycji nie zmienia się znacząco, jej zawartość powinna zmieniać się tylko przy aktualizacjach programu uruchamiającego (np. GRUB).
Jednak jeśli Twoja partycja systemu EFI nie jest zwierciadlona, zalecamy uruchamianie skryptu automatycznego lub ręcznego, aby zsynchronizować wszystkie ESP, tak aby zawierały te same aktualne pliki. Dzięki temu, jeśli dysk, na którym znajduje się ta partycja, ulegnie awarii, serwer będzie mógł uruchomić się z ESP jednego z innych dysków.
Co się stanie, jeśli główny dysk (z zamontowaną partycją systemu EFI) ulegnie awarii?
Jeśli twój ESP nie jest dublowany, mogą wystąpić następujące problemy:
Proszę zauważyć, że choć poniżej omawiamy najczęściej spotykane przypadki, istnieje wiele innych powodów, dla których serwer może nie uruchomić się w normalnym trybie po wymianie dysku.
Przypadek 1 – Nie było żadnych zmian ani dużych aktualizacji (np. GRUB) w systemie operacyjnym.
- Serwer może uruchomić się w normalnym trybu i można kontynuować odbudowę RAID.
- Serwer nie może uruchomić się w normalnym trybie, użyj środowiska trybu rescue, aby odbudować RAID i zrekonfigurować partycję systemu EFI na nowym dysku.
Przypadek 2 – Były duże aktualizacje systemu (np. GRUB), a partycje ESP są zsynchronizowane.
- Serwer może uruchomić się w normalnym trybie, ponieważ wszystkie ESP są aktualne, a odbudowa RAID może zostać wykonana w normalnym trybie.
- Serwer nie może uruchomić się w normalnym trybie, użyj środowiska trybu rescue, aby odbudować RAID i zrekonfigurować partycję systemu EFI na nowym dysku.
Przypadek 3 – Były duże aktualizacje systemu (np. GRUB) i partycje ESP nie zostały zsynchronizowane.
- Serwer nie może uruchomić się w normalnym trybie, użyj środowiska trybu rescue, aby odbudować RAID, zrekonfigurować partycję systemu EFI na nowym dysku i zainstalować ponownie program uruchamiający (np. GRUB).
- Serwer może uruchomić się w normalnym trybie (np. gdy system operacyjny został uaktualniony, ale wersja GRUB nie zmieniła się), pozwalając kontynuować odbudowę RAID.
W niektórych przypadkach uruchomienie z nieaktualnego ESP może się nie powieść; np. duża aktualizacja GRUB może sprawić, że binarna wersja GRUB w ESP będzie niekompatybilna z nowszymi modułami GRUB w partycji /boot.
Jak mogę zsynchronizować moje partycje systemu EFI i jak często je synchronizować?
Jeśli obszar ESP nie jest dublowany, należy rozważyć następujące kwestie:
Proszę zauważyć, że w zależności od systemu operacyjnego proces może się różnić. Na przykład Ubuntu może utrzymywać wiele partycji systemu EFI zsynchronizowanych przy każdej aktualizacji GRUB, ale jest to jedyny system operacyjny, który to robi. Zalecamy zapoznanie się z oficjalną dokumentacją swojego systemu operacyjnego, aby zrozumieć, jak zarządzać ESP.
W tym przewodniku używany jest system operacyjny Debian.
Zalecamy regularne synchronizowanie swoich partycji ESP lub po każdej dużej aktualizacji systemu. Domyślnie wszystkie partycje systemu EFI zawierają te same pliki po instalacji. Jednak po dużej aktualizacji systemu synchronizacja partycji ESP jest konieczna, aby zapewnić, że zawartość pozostaje aktualna.
Uruchamianie skryptu to skuteczny sposób na regularne synchronizowanie partycji. Poniżej znajduje się skrypt, który możesz użyć do ręcznego zsynchronizowania swoich partycji ESP. Alternatywnie możesz skonfigurować automatyczny skrypt, który będzie je synchronizować codziennie lub za każdym razem, gdy system się uruchomi.
Przed wykonaniem skryptu upewnij się, że rsync jest zainstalowany na Twoim systemie:
Debian/Ubuntu
CentOS, Red Hat i Fedora
Aby uruchomić skrypt w systemie Linux, potrzebujesz pliku wykonywalnego:
- Zacznij od utworzenia pliku .sh w wybranym katalogu, zastępując
script-namewybraną przez Ciebie nazwą:
- Otwórz plik za pomocą edytora tekstu i dodaj poniższe linie:
Zapisz i zamknij plik.
- Ustaw skrypt jako wykonywalny:
- Uruchom skrypt:
- Jeśli nie jesteś w katalogu:
Po wykonaniu skryptu zawartość zamontowanej partycji ESP zostanie zsynchronizowana z innymi. Następnie możesz zamontować każdą niezamontowaną partycję EFI w punkcie montażu: /var/lib/grub/esp, aby uzyskać dostęp do jej zawartości.
Symulowanie awarii dysku
Teraz, gdy mamy niezbędne informacje, możemy zasymulować awarię dysku. W tym przykładzie zasymulujemy awarię głównego dysku nvme0n1 (zwróć uwagę, że to dysk z zamontowanym ESP).
Preferowany sposób to wykonanie tej czynności za pomocą środowiska trybu rescue OVHcloud.
Uruchom serwer w trybie ratunkowym i zaloguj się przy użyciu dostarczonych poświadczeń.
Aby usunąć dysk z RAID, najpierw oznacz go jako Failed (uszkodzony), a następnie usuń jego partycje z tablic RAID.
Uwaga: To tylko ilustracja; dostosuj komendy do swojej konfiguracji.
Z powyższego wyniku wynika, że nvme0n1 składa się z dwóch partycji w RAID, które to nvme0n1p2 i nvme0n1p3.
Usuwanie uszkodzonego dysku
Najpierw oznacz partycje nvme0n1p2 i nvme0n1p3 jako zepsute (Failed).
Następnie uruchom komendę cat /proc/mdstat:
Jak widać powyżej, [F] obok partycji wskazuje, że dysk uległ awarii lub jest uszkodzony.
Następnie usuń te partycje z tablic RAID, aby całkowicie usunąć dysk z RAID.
Stan RAID powinien teraz wyglądać następująco:
Teraz w tablicach RAID widoczne są tylko dwie partycje. Pomyślnie zakończyliśmy awarię dysku nvme0n1.
Aby uzyskać dysk podobny do pustego, uruchamiamy następujące polecenie na każdej partycji, a następnie na samym dysku:
Dysk teraz wygląda jak nowy, pusty dysk:
Aby upewnić się, że dysk został pomyślnie "wyczyszczony":
Aby uzyskać więcej informacji na temat przygotowania i złożenia wniosku o wymianę dysku, zapoznaj się z tym przewodnikiem.
Dodatkowo, jeśli uruchomisz poniższe polecenie, otrzymasz więcej szczegółów dotyczących tablic RAID:
Możemy teraz przystąpić do wymiany dysku i odbudowy macierzy RAID.
Odbudowa macierzy RAID (z ESP bez dublowania)
Ten proces może się różnić w zależności od systemu operacyjnego zainstalowanego na Twoim serwerze. Zalecamy, abyś zapoznał się z oficjalną dokumentacją swojego systemu operacyjnego, aby uzyskać dostęp do odpowiednich poleceń.
Jeśli Twój serwer potrafi uruchomić się w trybie normalnym po wymianie dysku, po prostu wykonaj kroki z tej sekcji, jeśli Twoja partycja systemu EFI nie jest zwierciadlona lub tej sekcji, jeśli Twoja partycja systemu EFI jest zwierciadlona.
Odbudowanie tablicy RAID po wymianie głównego dysku (trybu Rescue)
Po wymianie dysku skopiuj tablicę partycji z dysku sprawnego (w tym przykładzie, nvme1n1) na nowy (nvme0n1).
Dla partycji GPT
Polecenie powinno mieć następującą postać: sgdisk -R /dev/nowy dysk /dev/prawidłowy dysk
Przykład:
Uruchom lsblk, aby upewnić się, że tablice partycji zostały poprawnie skopiowane:
Następnie wygeneruj GUID nowego dysku, aby uniknąć konfliktów GUID z innymi dyskami:
Jeśli otrzymasz poniższy komunikat:
Po prostu uruchom polecenie partprobe.
Następnie odbudowujemy tablicę RAID. Poniższy fragment kodu pokazuje, jak dodać nowe partycje (nvme0n1p2 i nvme0n1p3) z powrotem do tablicy RAID.
Aby sprawdzić postęp odbudowy:
Po zakończeniu odbudowy tablicy RAID uruchom poniższe polecenie, aby upewnić się, że partycje zostały poprawnie dodane do tablicy RAID:
Na podstawie powyższych wyników, partycje na nowym dysku zostały poprawnie dodane do tablicy RAID. Jednak partycja systemu EFI i partycja SWAP (w niektórych przypadkach) nie zostały zduplikowane, co jest normalne, ponieważ nie są one uwzględniane w tablicy RAID.
Powyższe przykłady ilustrują tylko niezbędne kroki na podstawie domyślnej konfiguracji serwera. Informacje w tabeli wyników zależą od sprzętu Twojego serwera i jego schematu partycji. W przypadku wątpliwości skonsultuj dokumentację swojego systemu operacyjnego.
Jeśli potrzebujesz profesjonalnej pomocy w administracji serwerem, zapoznaj się z sekcją Sprawdź również tego przewodnika.
Odbudowanie partycji systemu EFI
Aby odbudować partycję systemu EFI na nowym dysku, musimy sformatować nvme0n1p1 i następnie zrekompilować zawartość sprawnej partycji (w naszym przykładzie: nvme1n1p1) na nią.
Zakładamy, że obie partycje zostały zsynchronizowane i zawierają aktualne pliki.
Jeśli miało miejsce znaczące uaktualnienie systemu, takie jak jądro lub GRUB, i obie partycje nie zostały zsynchronizowane, skonsultuj tą sekcję po zakończeniu tworzenia nowej partycji systemu EFI.
Najpierw sformatuj partycję:
Następnie nadaj partycji etykietę EFI_SYSPART (ta nazwa jest specyficzna dla OVHcloud):
Następnie skopiuj zawartość nvme1n1p1 do nvme0n1p1.
Zacznij od utworzenia dwóch folderów, nazwanych "old" i "new" w tym przykładzie:
Zamontuj nvme1n1p1 w folderze "old" i nvme0n1p1 w folderze "new", aby rozróżnić je:
Następnie kopiujemy pliki z katalogu "old" do "new":
Po wykonaniu tej czynności odinstaluj obie partycje:
Następnie zamontuj partycję zawierającą korzeń systemu operacyjnego na /mnt. W tym przykładzie jest to partycja md3.
Zamontuj poniższe katalogi, aby upewnić się, że wszystkie zmiany wprowadzone w środowisku chroot będą działać poprawnie:
Następnie użyj polecenia chroot, aby uzyskać dostęp do punktu montażowego i sprawdzić, czy nowa partycja ESP została poprawnie utworzona i czy system rozpoznaje obie partycje ESP:
Aby wyświetlić partycje ESP, uruchom polecenie blkid -t LABEL=EFI_SYSPART:
Wyniki pokazują, że nowa partycja ESP została poprawnie utworzona i etykieta została prawidłowo zastosowana.
Po wykonaniu tej czynności wyjdź z środowiska chroot:
Następnie skorzystaj z tej sekcji, aby odbudować partycję SWAP (jeśli dotyczy).
Odbudowanie tablicy RAID z niezsynchronizowanymi partycjami ESP po znaczących uaktualnieniach systemu (GRUB)
Rozwiń tę sekcję
Wykonuj kroki z tej sekcji tylko wtedy, gdy dotyczą one Twojego przypadku.
Jeśli główny dysk zostanie wymieniony, gdy zawiera partycje systemu EFI, które nie zostały zsynchronizowane po znaczących uaktualnieniach systemu, które zmodyfikowały GRUB, uruchomienie systemu z jednego z dysków pomocniczych z przestarzałą partycją ESP może się nie powieść.
W takim przypadku, oprócz odbudowania tablicy RAID i odbudowania partycji systemu EFI w trybie ratunkowym, musisz również ponownie zainstalować GRUB na niej.
Po utworzeniu partycji ESP (jak wyjaśniono powyżej) i gdy system rozpoznaje obie partycje, wciąż w środowisku chroot, utwórz katalog /boot/efi, aby zamontować nową partycję systemu EFI nvme0n1p1:
Następnie ponownie zainstaluj bootloader GRUB:
Następnie uruchom poniższe polecenie:
Po wykonaniu tej czynności wyjdź z środowiska chroot:
Następnie skorzystaj z tej sekcji, aby odbudować partycję SWAP (jeśli dotyczy).
Odbudowanie tablicy RAID po wymianie głównego dysku (trybu normalny)
Rozwiń tę sekcję
Jeśli Twój serwer potrafi uruchomić się w trybie normalnym po wymianie głównego dysku, wykonaj poniższe kroki, aby odbudować tablicę RAID.
Po wymianie dysku skopiuj tablicę partycji z dysku sprawnego (w tym przykładzie, nvme1n1) na nowy dysk (nvme0n1).
Dla partycji GPT
Polecenie powinno mieć następującą postać: sgdisk -R /dev/nowy dysk /dev/prawidłowy dysk
Następnie wygeneruj GUID nowego dysku, aby uniknąć konfliktów GUID z innymi dyskami:
Jeśli otrzymasz poniższy komunikat:
Po prostu uruchom polecenie partprobe. Jeśli nadal nie widzisz nowo utworzonych partycji (przez uruchomienie lsblk), musisz ponownie uruchomić serwer, zanim przejdziesz dalej.
Następnie dodaj partycje do tablicy RAID:
Użyj poniższego polecenia, aby monitorować odbudowę tablicy RAID:
Po zakończeniu odbudowy odbuduj partycję systemu EFI na nowym dysku.
- Najpierw upewnij się, że zainstalowane są odpowiednie narzędzia:
Debian i Ubuntu
CentOS
- Sformatuj partycję. W naszym przykładzie
nvme0n1p1:
- Nadaj partycji etykietę
EFI_SYSPART(ta nazwa jest specyficzna dla OVHcloud):
Po wykonaniu tej czynności zsynchronizuj obie partycje za pomocą skryptu dostarczonego w tym przewodniku.
- Sprawdź, czy nowa partycja systemu EFI została poprawnie utworzona i system ją rozpoznaje:
Następnie skorzystaj z tej sekcji, aby odbudować partycję SWAP (jeśli dotyczy).
Odbudowa macierzy RAID (z dublowaniem ESP)
Rozwiń tę sekcję
Odbudowanie RAID z lustrowanymi wszystkimi partycjami jest łatwiejsze; po prostu skopiuj dane z dysku sprawnego na nowy dysk i odbuduj partycję [SWAP] (jeśli dotyczy).
Na podstawie powyższych ilustracji, status RAID powinien wyglądać tak po awarii dysku:
Po wymianie dysku pierwszym krokiem jest skopiowanie tabeli partycji ze sprawnego dysku (w tym przykładzie, nvme1n1) na nowy (nvme0n1).
Dla partycji GPT
Komenda powinna mieć następującą postać: sgdisk -R /dev/nowy dysk /dev/prawidłowy dysk.
W naszym przykładzie:
Uruchom lsblk, aby upewnić się, że tabele partycji zostały poprawnie skopiowane:
Następnie zasymuluj GUID nowego dysku, aby uniknąć konfliktów GUID z innymi dyskami:
Jeśli otrzymasz poniższy komunikat:
Po prostu uruchom komendę partprobe.
Możemy teraz odbudować tablicę RAID. Poniższy fragment kodu pokazuje, jak dodać nowe partycje (nvme0n1p1, nvme0n1p2 i nvme0n1p3) z powrotem do tablicy RAID.
Aby sprawdzić proces odbudowy:
Po zakończeniu odbudowy uruchom poniższą komendę, aby upewnić się, że partycje zostały poprawnie dodane do RAID:
Po zakończeniu, zapoznaj się z tą sekcją, aby odbudować partycję SWAP (jeśli dotyczy).
Na podstawie powyższych ilustracji, status RAID powinien wyglądać tak po awarii dysku:
Po wymianie dysku skopiuj tabelę partycji z dysku prawidłowy (w tym przykładzie nvme1n1) na nowy dysk (nvme0n1).
Dla partycji GPT
Polecenie powinno mieć następujący format: sgdisk -R /dev/nowy dysk /dev/prawidłowy dysk.
Następnie zasymuluj GUID nowego dysku, aby uniknąć konfliktów GUID z innymi dyskami:
Jeśli otrzymasz poniższy komunikat:
If you receive the following message:
Po prostu uruchom komendę partprobe. Jeśli nadal nie widzisz nowo utworzonych partycji (np. za pomocą lsblk), musisz ponownie uruchomić serwer, zanim przejdziesz dalej.
Następnie dodaj partycje do RAID:
Użyj poniższej komendy, aby monitorować odbudowę RAID:
Po zakończeniu odbudowy RAID, zapoznaj się z tą sekcją, aby odbudować partycję SWAP (jeśli dotyczy).
Dodanie etykiety do partycji SWAP (jeśli dotyczy)
Rozwiń tę sekcję
Poza środowiskiem chroot, odbuduj partycję [SWAP] nvme0n1p4 i dodaj etykietę swap-nvmenxxx:
Sprawdź, czy etykieta została poprawnie zastosowana:
Znów wejdź do środowiska chroot:
Pobierz UUID obu partycji SWAP:
Następnie zastąp stary UUID partycji SWAP (nvme0n1p4) nowym w pliku /etc/fstab:
Przykład:
Na podstawie powyższych wyników, stary UUID to b7b5dd38-9b51-4282-8f2d-26c65e8d58ec i powinien zostać zastąpiony nowym b3c9e03a-52f5-4683-81b6-cc10091fcd15. Upewnij się, że zastępujesz poprawny UUID.
Następnie sprawdź, czy wszystko zostało poprawnie zamontowane za pomocą poniższej komendy:
Aktywuj partycję SWAP:
Wyjdź z środowiska chroot za pomocą exit i przeładuj system:
Odinstaluj wszystkie dyski:
Aby odbudować partycję SWAP, wykonaj poniższe kroki:
- Najpierw odbuduj partycję na nvme0n1p4 i dodaj etykietę swap-nvme0n1p4:
- Pobierz UUID obu partycji SWAP:
- Zastąp stary UUID partycji SWAP (nvme0n1p4) nowym w pliku
/etc/fstab:
Przykład:
Na podstawie powyższych wyników, stary UUID to b7b5dd38-9b51-4282-8f2d-26c65e8d58ec i powinien zostać zastąpiony nowym b3c9e03a-52f5-4683-81b6-cc10091fcd15.
Upewnij się, że zastępujesz poprawny UUID.
Następnie uruchom poniższą komendę, aby aktywować partycję SWAP:
Następnie przeładuj system:
Teraz zakończyliśmy odbudowę RAID.
Sprawdź również
Dla usług specjalistycznych (SEO, programowanie itp.), skontaktuj się z partnerami OVHcloud.
Jeśli potrzebujesz pomocy w użyciu i konfiguracji rozwiązań OVHcloud, zapoznaj się z naszymi ofertami wsparcia.
Jeśli potrzebujesz szkoleń lub pomocy technicznej w wdrożeniu naszych rozwiązań, skontaktuj się ze swoim przedstawicielem handlowym lub kliknij ten link, aby uzyskać wycenę i zapytać ekspertów z Professional Services o pomoc w konkretnym przypadku użycia projektu.
Dołącz do grona naszych użytkowników.