Gestione e ricostruzione di un RAID software sui server in modalità di avvio UEFI
Informazioni sulla traduzione
Questa traduzione è stata generata automaticamente dal nostro partner SYSTRAN. I contenuti potrebbero presentare imprecisioni, ad esempio la nomenclatura dei pulsanti o alcuni dettagli tecnici. In caso di dubbi consigliamo di fare riferimento alla versione inglese o francese della guida. Per aiutarci a migliorare questa traduzione, utilizza il pulsante "Contribuisci" di questa pagina.
Obiettivo
Un Redundant Array of Independent Disks (RAID) è una tecnologia che riduce la perdita di dati su un server replicando i dati su due dischi o più.
Il livello RAID predefinito per le installazioni dei server OVHcloud è il RAID 1, che raddoppia lo spazio occupato dai vostri dati, riducendo quindi la capacità di archiviazione utilizzabile a metà.
Questa guida spiega come gestire e ricostruire un RAID software dopo la sostituzione di un disco sul server in modalità UEFI.
Prima di iniziare, notate che questa guida si concentra sui Server dedicati che utilizzano la modalità UEFI come modalità di avvio. Questo è il caso delle schede madri moderne. Se il vostro server utilizza la modalità di avvio legacy (BIOS), consultate questa guida: Gestione e ricostruzione di un RAID software su server in modalità di avvio legacy (BIOS).
Per verificare se un server funziona in modalità BIOS legacy o in modalità UEFI, eseguite il comando seguente:
Per ulteriori informazioni sull'UEFI, consultate l'articolo seguente: https://uefi.org/about.
Prerequisiti
- Un server dedicato con una configurazione RAID software
- Un accesso amministrativo (sudo) al server tramite SSH
- Una comprensione del RAID, delle partizioni e di GRUB
In questa guida utilizziamo i termini disco principale e disco secondario. In questo contesto:
- Il disco principale è il disco il cui ESP (EFI System Partition) è montato da Linux.
- Il disco o i dischi secondari sono tutti gli altri dischi del RAID.
Procedura
Quando acquisti un nuovo server, potresti sentire il bisogno di effettuare una serie di test e azioni. Un tale test potrebbe consistere nel simulare un guasto del disco per comprendere il processo di ricostruzione del RAID.
Panoramica del contenuto
- Informazioni di base
- Comprendere la partizione di sistema EFI (ESP)
- Simulazione di un guasto del disco
- Ricostruzione del RAID (con ESP non mirror)
- Ricostruzione del RAID dopo il ripristino del disco principale (modalità rescue)
- Ricreazione della partizione di sistema EFI
- Ricostruzione del RAID con ESP non sincronizzati dopo aggiornamenti importanti del sistema (GRUB)
- Ricostruzione del RAID dopo la sostituzione del disco principale (modalità normale)
- Ricostruzione del RAID (con ESP in mirror)
- Aggiunta dell'etichetta alla partizione SWAP (se applicabile)
Informazioni di base
In una sessione della riga di comando, digita il comando seguente per determinare lo stato corrente del RAID:
Dai risultati, possiamo notare che attualmente sono configurati due dispositivi RAID software, md2 e md3, con md3 che è il più grande dei due. md3 è composto da due partizioni, denominate nvme0n1p3 e nvme1n1p3.
Il [UU] significa che tutti i dischi funzionano normalmente. Un _ indicherebbe un disco guasto.
In altri casi, otterresti i seguenti risultati:
Dai risultati, possiamo notare che attualmente sono configurati tre dispositivi RAID software, md1, md2 e md3, con md3 che è il più grande dei due. md3 è composto da due partizioni, denominate nvme0n1p3 e nvme1n1p3.
Se hai un server con dischi SATA, otterrai i seguenti risultati:
Questo comando mostra i nostri volumi RAID, ma non le dimensioni delle partizioni. Possiamo trovare queste informazioni utilizzando fdisk -l:
fdisk -l
Questo comando consente anche di identificare il tipo di partizione.
Per le partizioni GPT, la riga 6 mostrerà: Disklabel type: gpt.
Queste informazioni sono visibili solo quando il server è in modalità normale.
Ancora basandosi sui risultati di fdisk -l, possiamo vedere che /dev/md2 è composto da 1022 MiB e /dev/md3 contiene 474,81 GiB. Se eseguiamo il comando mount, possiamo anche trovare la disposizione dei dischi.
In alternativa, il comando lsblk offre una visione diversa delle partizioni:
Inoltre, se eseguiamo lsblk -f, otteniamo ulteriori informazioni su queste partizioni, come il LABEL e l'UUID:
Prendi i dispositivi, le partizioni e i punti di montaggio, poiché è importante, soprattutto dopo il ripristino di un disco. Ci permetterà di verificare che le partizioni siano correttamente montate sui rispettivi punti di montaggio sul nuovo disco.
Nel nostro esempio, abbiamo:
- Due matrici RAID:
/dev/md2e/dev/md3. - Partizioni che fanno parte del RAID: nvme0n1p2, nvme0n1p3, nvme1n1p2 e nvme0n1p3 con i punti di montaggio
/boote/. - Partizioni che non fanno parte del RAID: nvem0n1p1, nvme0n1p4 e nvme1n1p4 con i punti di montaggio
/boot/efie [SWAP]. - Una partizione non ha un punto di montaggio: nvme1n1p1.
La partizione nvme0n1p5 è una partizione di configurazione, ovvero un volume in sola lettura collegato al server che gli fornisce i dati di configurazione iniziale.
Comprendere la partizione di sistema EFI (ESP)
Espandi questa sezione
Cos'è una partizione del sistema EFI?
Una partizione di sistema EFI è una partizione che può contenere i caricatori di avvio, i gestori di avvio o le immagini del kernel di un sistema operativo installato. Può anche contenere programmi utilità del sistema destinati ad essere eseguiti prima dell'avvio del sistema operativo, nonché file di dati come i log degli errori.
La partizione di sistema EFI è in mirror nel RAID?
A partire da dicembre 2025, solo le seguenti versioni del sistema operativo metteranno in mirror la partizione di sistema EFI nel RAID per nuove installazioni o reinstallazioni:
- Debian 13
- Proxmox 9
- Ubuntu 25.10
- AlmaLinux e Rocky Linux 10
- Fedora 43
Per le versioni precedenti di questi sistemi operativi, la partizione EFI non è in mirror nel RAID; vengono creati diversi ESP, uno per disco. Tuttavia, solo un ESP è montato alla volta, e tutti gli ESP contengono gli stessi file. La partizione di sistema EFI è montata in /boot/efi, e il disco su cui è montata viene selezionato da Linux all'avvio.
Puoi utilizzare il comando lsblk per verificare se la tua partizione fa parte di una configurazione RAID.
Dai risultati sopra, possiamo vedere che una sola partizione di sistema EFI è montata in /boot/efi. Gli ESP quindi non sono in mirror (replicati).
Dai risultati sopra, possiamo vedere che entrambe le partizioni di sistema EFI sono montate su /boot/efi. Sono quindi in mirror nel RAID.
Il contenuto della partizione di sistema EFI cambia regolarmente?
In generale, il contenuto di questa partizione non cambia molto, dovrebbe cambiare solo durante gli aggiornamenti del bootloader (GRUB).
Tuttavia, se la tua partizione EFI non è in mirror, ti consigliamo di eseguire uno script automatico o manuale per sincronizzare tutti gli ESP, in modo che contengano tutti i file aggiornati. In questo modo, se il disco su cui questa partizione è montata va in panne, il server potrà riavviarsi sull'ESP di uno degli altri dischi.
Cosa succede se il disco principale (con la partizione di sistema EFI montata) va in panne?
Se il tuo ESP non è in mirror, potresti incontrare i seguenti problemi:
Ti preghiamo di notare che, anche se esaminiamo qui i casi più comuni, esistono diversi altri motivi per cui un server potrebbe non avviarsi in modalità normale dopo il ripristino di un disco.
Caso studio 1 - Nessuna modifica o aggiornamento principale (ad esempio, GRUB) è stato apportato al sistema operativo.
- Il server è in grado di avviarsi in modalità normale e puoi procedere alla ricostruzione del RAID.
- Il server non riesce ad avviarsi in modalità normale. Utilizza l'ambiente della modalità rescue per ricostruire il RAID e ricreare la partizione EFI sul nuovo disco.
Caso studio 2 - Sono state effettuate aggiornamenti principali del sistema (ad esempio, GRUB) e gli ESP sono sincronizzati.
- Il server è in grado di avviarsi in modalità normale poiché tutti gli ESP contengono informazioni aggiornate e la ricostruzione del RAID può essere effettuata in modalità normale.
- Il server non riesce ad avviarsi in modalità normale. Utilizza l'ambiente della modalità rescue per ricostruire il RAID e ricreare la partizione EFI sul nuovo disco.
Caso studio 3 - Sono state effettuate aggiornamenti principali del sistema (ad esempio, GRUB) sul sistema operativo e le partizioni ESP non sono state sincronizzate.
- Il server non riesce ad avviarsi in modalità normale, Utilizza l'ambiente della modalità rescue per ricostruire il RAID, ricreare la partizione di sistema EFI sul nuovo disco e reinstallare il bootloader (ad esempio, GRUB).
- Il server è in grado di avviarsi in modalità normale (questo potrebbe accadere nel caso in cui un sistema operativo venga aggiornato ma la versione di GRUB rimanga invariata), il che permette di procedere alla ricostruzione del RAID.
In alcuni casi, l'avvio da un ESP obsoleto potrebbe fallire; ad esempio, un aggiornamento principale di GRUB potrebbe rendere il binario GRUB nell'ESP incompatibile con i nuovi moduli GRUB nella partizione /boot.
Come posso sincronizzare le mie partizioni di sistema EFI, e con quale frequenza dovrei sincronizzarle?
Ti preghiamo di notare che il processo può variare in base al tuo sistema operativo. Ad esempio, Ubuntu può sincronizzare diverse partizioni di sistema EFI ad ogni aggiornamento di GRUB, ma è l'unico sistema operativo che lo fa. Ti consigliamo di consultare la documentazione ufficiale del tuo sistema operativo per comprendere come gestire gli ESP.
In questa guida, il sistema operativo utilizzato è Debian.
Ti consigliamo di sincronizzare i tuoi ESP regolarmente o dopo ogni aggiornamento principale del sistema. Per default, tutte le partizioni di sistema EFI contengono gli stessi file dopo l'installazione. Tuttavia, se è coinvolto un aggiornamento principale del sistema, la sincronizzazione degli ESP è essenziale per mantenere il contenuto aggiornato.
L'esecuzione di uno script è un modo efficace per sincronizzare regolarmente le tue partizioni. Di seguito troverai uno script che puoi utilizzare per sincronizzare manualmente i tuoi ESP. Puoi anche configurare uno script automatizzato per sincronizzarli quotidianamente o ad ogni avvio del sistema.
Prima di eseguire lo script, assicurati che rsync sia installato sul tuo sistema:
Debian/Ubuntu
CentOS, Red Hat e Fedora
Per eseguire uno script su Linux, hai bisogno di un file eseguibile:
- Inizia creando un file .sh nella directory di tua scelta, sostituendo
script-namecon il nome che preferisci.
- Apri il file con un editor di testo e aggiungi le seguenti righe:
Salva e chiudi il file.
- Rendi lo script eseguibile
- Esegui lo script
- Se non sei nella directory
Quando lo script viene eseguito, il contenuto della partizione EFI montata verrà sincronizzato con le altre. Per accedere al contenuto, puoi montare una di queste partizioni EFI non montate sul punto di montaggio: /var/lib/grub/esp.
Simulazione di un guasto del disco
Ora che abbiamo le informazioni necessarie, possiamo simulare un guasto del disco. In questo esempio, provocheremo il guasto del disco principale nvme0n1 (notiamo che si tratta del disco su cui è montato l'ESP).
Il metodo preferito per farlo è attraverso la modalità rescue di OVHcloud.
Riavvia il server in modalità rescue e collegati con le credenziali fornite.
Per rimuovere un disco dal RAID, il primo passo è contrassegnarlo come Failed (guasto) e rimuovere le partizioni dalle rispettive tabelle RAID.
Nota: si tratta solo di un esempio; adatta i comandi alla tua configurazione.
Dai risultati sopra, nvme0n1 ha due partizioni in RAID che sono nvme0n1p2 e nvme0n1p3.
Rimozione del disco guasto
In primo luogo, contrassegniamo le partizioni nvme0n1p2 e nvme0n1p3 come guaste (Failed).
Quando eseguiamo il comando cat /proc/mdstat, otteniamo :
Come possiamo vedere sopra, il [F] accanto alle partizioni indica che il disco è guasto o in panne.
Successivamente, rimuoviamo queste partizioni dagli array RAID per eliminarle completamente dal RAID.
Lo stato del RAID dovrebbe ora assomigliare a questo:
Ora, appaiono solo due partizioni negli array RAID. Abbiamo riuscito a provocare il guasto del disco nvme0n1.
Per ottenere un disco simile a un disco vuoto, esegui il comando seguente su ogni partizione, quindi sul disco:
Il disco appare ora come un disco nuovo e vuoto:
Esegui il comando seguente per verificare che il disco sia stato effettivamente "cancellato":
Per ulteriori informazioni sulla preparazione e la richiesta di sostituzione di un disco, consulta questo guida.
Inoltre, se esegui il comando seguente, otterrai ulteriori dettagli sugli array RAID:
Possiamo ora procedere alla sostituzione del disco e alla ricostruzione del RAID.
Ricostruzione del RAID (con ESP non mirror)
Questo processo può variare in base al sistema operativo installato sul tuo server. Ti consigliamo di consultare la documentazione ufficiale del tuo sistema operativo per ottenere i comandi appropriati.
Se il tuo server può avviarsi in modalità normale dopo la sostituzione del disco, procedi semplicemente seguendo le istruzioni descritte in questa sezione se la tua partizione EFI non è in mirror o questa sezione se la tua partizione EFI è in mirror.
Ricostruzione del RAID dopo il ripristino del disco principale (modalità rescue)
Una volta sostituito il disco, copia la tabella delle partizioni del disco sano (in questo esempio, nvme1n1) verso il nuovo disco (nvme0n1).
Per le partizioni GPT
Il comando deve essere in questo formato: sgdisk -R /dev/nuovo disco /dev/disco sano
Esempio:
Esegui lsblk per verificare che le tabelle delle partizioni siano state correttamente copiate:
Successivamente, randomizza il GUID del nuovo disco per evitare eventuali conflitti con i GUID di altri dischi:
Se ricevi il seguente messaggio:
Esegui semplicemente il comando partprobe.
Possiamo ora ricostruire l'array RAID. L'estratto di codice seguente mostra come aggiungere nuovamente le nuove partizioni (nvme0n1p2 e nvme0n1p3) all'array RAID.
Per verificare il processo di ricostruzione:
Una volta completata la ricostruzione del RAID, esegui il comando seguente per verificare che le partizioni siano state correttamente aggiunte al RAID:
In base ai risultati sopra riportati, le partizioni del nuovo disco sono state correttamente aggiunte al RAID. Tuttavia, la partizione EFI System e la partizione SWAP (in alcuni casi) non sono state duplicate, il che è normale poiché non fanno parte del RAID.
Gli esempi sopra illustrano semplicemente le fasi necessarie in base a una configurazione del server predefinita. I risultati di ogni comando dipendono dal tipo di hardware installato sul tuo server e dalla struttura delle sue partizioni. In caso di dubbi, consulta la documentazione del tuo sistema operativo.
Se hai bisogno di un supporto professionale per l'amministrazione del tuo server, consulta i dettagli della sezione Per saperne di più di questa guida.
Ricreazione della partizione del sistema EFI
Per ricostruire la partizione EFI System sul nuovo disco, dobbiamo formattare nvme0n1p1 e replicare il contenuto della partizione EFI System sana (nel nostro esempio: nvme1n1p1) su questa.
In questo caso, assumiamo che le due partizioni siano state sincronizzate e contengano file aggiornati.
Se è avvenuta un'aggiornamento importante del sistema, come un aggiornamento del kernel o di GRUB, e le due partizioni non sono state sincronizzate, consulta questa sezione una volta che hai completato la creazione della nuova partizione EFI System.
Per prima cosa, formatta la partizione:
Successivamente, assegna alla partizione il nome EFI_SYSPART (questo nome è specifico di OVHcloud):
Duplica quindi il contenuto di nvme1n1p1 su nvme0n1p1.
Inizia creando due cartelle, denominate « old » e « new » in questo esempio:
Successivamente, monta nvme1n1p1 nella cartella « old » e nvme0n1p1 nella cartella « new » per distinguerle:
Copia i file della cartella « old » nella cartella « new »:
Una volta completato, smonta le due partizioni:
Successivamente, monta la partizione che contiene la radice del sistema operativo su /mnt. In questo esempio, questa partizione è md3.
Monta le directory seguenti per assicurarti che tutte le modifiche apportate nell'ambiente chroot funzionino correttamente:
Successivamente, utilizza il comando chroot per accedere al punto di montaggio e verifica che la nuova partizione sistema EFI sia stata correttamente creata e che il sistema riconosca i due ESP:
Per visualizzare le partizioni ESP, esegui il comando blkid -t LABEL=EFI_SYSPART:
I risultati sopra riportati mostrano che la nuova partizione EFI è stata creata correttamente e che l'etichetta è stata applicata correttamente.
Una volta completato, esci dall'ambiente chroot:
Successivamente, consulta questa sezione per ricostruire la partizione SWAP (se necessario).
Ricostruzione del RAID con ESP non sincronizzati dopo aggiornamenti importanti del sistema (GRUB)
Espandi questa sezione
Segui le fasi di questa sezione solo se si applicano al tuo caso.
Se il disco principale viene sostituito quando contiene partizioni sistema EFI non sincronizzate dopo aggiornamenti importanti del sistema che hanno modificato il GRUB, l'avvio da uno dei dischi secondari con un ESP obsoleto potrebbe fallire.
In questo caso, oltre a ricostruire il RAID e a ricreare la partizione sistema EFI in modalità rescue, devi anche reinstallare il GRUB su questa.
Una volta creato l'ESP (come spiegato sopra) e riconosciuto dal sistema, sempre nell'ambiente chroot, crea la directory /boot/efi per montare la nuova partizione sistema EFI nvme0n1p1.
Successivamente, reinstalla il caricatore di avvio GRUB (bootloader):
Poi, esegui il comando seguente:
Una volta completato, esci dall'ambiente chroot:
Successivamente, consulta questa sezione per ricostruire la partizione SWAP (se necessario).
Ricostruzione del RAID dopo la sostituzione del disco principale (modalità normale)
Espandi questa sezione
Se il tuo server è in grado di avviarsi in modalità normale dopo la sostituzione del disco, puoi seguire le fasi seguenti per ricostruire il RAID.
Una volta sostituito il disco, copiamo la tabella delle partizioni del disco sano (in questo esempio, nvme1n1) verso il nuovo (nvme0n1).
Per le partizioni GPT
Il comando deve essere in questo formato: sgdisk -R /dev/nuovo disco /dev/disco sano.
Una volta completato, il passo successivo consiste nell'attribuire un GUID casuale al nuovo disco per evitare conflitti di GUID con altri dischi:
Se ricevi il seguente messaggio:
Esegui semplicemente il comando partprobe. Se non vedi comunque le nuove partizioni create (con il comando lsblk), devi riavviare il server prima di procedere.
Successivamente, aggiungi le partizioni al RAID:
Utilizza questo comando per seguire la ricostruzione del RAID: cat /proc/mdstat.
Una volta completata la ricostruzione, ricrea la partizione sistema EFI sul nuovo disco.
- Per prima cosa, assicurati che gli strumenti necessari siano installati:
Debian e Ubuntu
CentOS
- Formatta la partizione. Nel nostro esempio
nvme0n1p1:
- Assegna l'etichetta
EFI_SYSPARTalla partizione (questo nome è specifico di OVHcloud):
Una volta completato, puoi sincronizzare le due partizioni utilizzando lo script fornito in questa guida.
- Verifica che la nuova partizione EFI System sia stata correttamente creata e che il sistema la riconosca:
Successivamente, consulta questa sezione per ricostruire la partizione SWAP (se necessario).
Ricostruzione del RAID (con ESP in mirror)
Espandi questa sezione
La ricostruzione del RAID con tutte le partizioni in specchio è più semplice; basta copiare i dati del disco sano sul nuovo disco e ricreare la partizione [SWAP] (se necessario).
In base alle illustrazioni sopra, lo stato del RAID dovrebbe apparire così dopo un guasto del disco:
Una volta sostituito il disco, il primo passo consiste nel copiare la tabella delle partizioni del disco sano (in questo esempio, nvme1n1) sul nuovo disco (nvme0n1).
Per le partizioni GPT
Il comando deve essere nel formato seguente: sgdisk -R /dev/nuovo disco /dev/disco sano.
Nel nostro esempio:
Esegui lsblk per verificare che le tabelle delle partizioni siano state correttamente copiate:
Il passo successivo consiste nell'attribuire un GUID casuale al nuovo disco per evitare conflitti di GUID con altri dischi:
Se ricevi il seguente messaggio:
Esegui il comando partprobe.
Ora possiamo ricostruire la matrice RAID. L'estratto di codice seguente mostra come aggiungere nuovamente le nuove partizioni (nvme0n1p2 e nvme0n1p3) alla matrice RAID.
Per verificare il processo di ricostruzione:
Una volta completata la ricostruzione, esegui il comando seguente per verificare che le partizioni siano state correttamente aggiunte al RAID:
Successivamente, consulta questa sezione per ricreare la partizione SWAP (se necessario).
In base alle illustrazioni sopra, lo stato del RAID dovrebbe apparire così dopo un guasto del disco:
Una volta sostituito il disco, il primo passo consiste nel copiare la tabella delle partizioni del disco sano (in questo esempio, nvme1n1) sul nuovo disco (nvme0n1).
Per le partizioni GPT
Il comando deve essere nel seguente formato: sgdisk -R /dev/nuovo disco /dev/disco sano.
Successivamente, randomizza il GUID del nuovo disco per evitare conflitti con i GUID di altri dischi:
Se ricevi il seguente messaggio:
Esegui semplicemente il comando partprobe. Se non vedi comunque le nuove partizioni create (es. con lsblk), devi riavviare il server prima di procedere.
Successivamente, aggiungi le partizioni al RAID:
Utilizza il comando seguente per monitorare la ricostruzione del RAID:
Una volta completata la ricostruzione del RAID, consulta questa sezione per ricreare la partizione SWAP (se necessario).
Aggiunta dell'etichetta alla partizione SWAP (se applicabile)
Espandi questa sezione
Fuori dall'ambiente chroot, ricrea la partizione [SWAP] nvme0n1p4 e aggiungi l'etichetta swap-nvmenxxx:
Verifica che l'etichetta sia stata correttamente applicata:
Accedi nuovamente all'ambiente chroot:
Recupera l'UUID delle due partizioni SWAP:
Quindi, sostituisci l'UUID vecchio della partizione SWAP (nvme0n1p4) con il nuovo nel file /etc/fstab:
Esempio:
Sulla base dei risultati sopra riportati, il vecchio UUID è b7b5dd38-9b51-4282-8f2d-26c65e8d58ec e deve essere sostituito con il nuovo b3c9e03a-52f5-4683-81b6-cc10091fcd15. Assicurati di sostituire l'UUID corretto.
Quindi, verifica che tutto sia correttamente montato con il comando seguente:
Attiva la partizione SWAP:
Esci dall'ambiente chroot con exit e ricarica il sistema:
Smonta tutti i dischi:
Abbiamo ora completato con successo la ricostruzione RAID sul server e possiamo ora riavviarlo in modalità normale.
Per ricreare la partizione SWAP, procedere come segue:
- Innanzitutto, ricreare la partizione su nvme0n1p4 e aggiungere l'etichetta swap-nvme0n1p4:
- Recuperare gli UUID delle due partizioni SWAP:
- Sostituisci il vecchio UUID della partizione SWAP (nvme0n1p4) con quello nuovo in
/etc/fstab:
Esempio:
In base ai risultati sopra riportati, il vecchio UUID è b7b5dd38-9b51-4282-8f2d-26c65e8d58ec e deve essere sostituito con il nuovo b3c9e03a-52f5-4683-81b6-cc10091fcd15.
Assicurati di sostituire l'UUID corretto.
Quindi, esegui il seguente comando per attivare la partizione SWAP:
Quindi, riavvia il sistema:
Abbiamo ora completato con successo la ricostruzione del RAID.
Per saperne di più
Per servizi specializzati (SEO, sviluppo, ecc.), contatta i partner OVHcloud.
Se hai bisogno di un supporto per utilizzare e configurare le tue soluzioni OVHcloud, consulta le nostre offerte di supporto.
Se hai bisogno di formazione o di un supporto tecnico per implementare le nostre soluzioni, contatta il tuo rappresentante commerciale o clicca su questo link per richiedere un preventivo e chiedere ai nostri esperti del team Professional Services di intervenire sul tuo caso d'uso specifico.
Contatta la nostra Community di utenti.