
Contrariamente a quanto si pensa, il vero costo di un disastro non sono i dati persi, ma i minuti, le ore e i giorni in cui la tua azienda è completamente ferma e non può fatturare.
- RTO (Recovery Time Objective) e RPO (Recovery Point Objective) non sono tecnicismi, ma le metriche finanziarie che definiscono la tua soglia di sopravvivenza.
- Avere un backup è inutile. Ciò che conta è aver testato la velocità e l’efficacia del ripristino in condizioni di crisi simulata.
Raccomandazione: Smetti di vedere il Disaster Recovery come un costo IT e inizia a trattarlo come un investimento strategico sulla resilienza e la sopravvivenza del tuo business.
Da imprenditore, probabilmente vedi il Disaster Recovery come un’altra voce di costo nel bilancio IT, un’assicurazione costosa contro un evento che forse non accadrà mai. Si parla di backup, cloud, server, ma raramente si risponde alla domanda che conta davvero: per quante ore o giorni la tua azienda può permettersi di restare paralizzata prima che i danni diventino irreversibili? Questa non è una questione tecnica, è una questione di sopravvivenza aziendale. Il dibattito non è su “quale backup comprare”, ma su “qual è il nostro punto di rottura finanziario?”.
Molti confondono il backup con il Disaster Recovery. Il backup è la copia dei dati. Il Disaster Recovery è il piano strategico, testato e provato, per riattivare l’intera operatività aziendale – sistemi, persone, processi – entro un tempo prestabilito. Questo piano si basa su due pilastri: l’RTO (Recovery Time Objective), ovvero il tempo massimo che può intercorrere tra il disastro e la ripartenza, e l’RPO (Recovery Point Objective), la quantità massima di dati che puoi permetterti di perdere, misurata in tempo. Se il tuo RPO è di un’ora, significa che devi ripristinare i dati com’erano al massimo un’ora prima del blocco.
La vera rottura con l’approccio tradizionale, però, non sta nel capire queste sigle, ma nel cambiare la prospettiva. Non stiamo parlando di file persi; stiamo parlando di fatturato azzerato, di reputazione distrutta, di penali contrattuali e, in ultima analisi, del rischio concreto di chiudere l’attività. L’errore più comune è delegare questa decisione strategica al reparto IT, quando invece dovrebbe essere una discussione a livello di management, basata sul costo orario del fermo macchina.
Questo articolo non ti venderà una soluzione, ma ti fornirà il metodo di un Business Continuity Manager per analizzare i rischi reali, calcolare la tua soglia di tolleranza e trasformare un costo percepito in un vantaggio competitivo misurabile. Esploreremo insieme come testare la tua vera capacità di ripresa, come proteggerti dalle minacce più subdole e perché, nel contesto geografico italiano, affidarsi a una sola sede fisica è una scommessa che non puoi permetterti di perdere.
In questo percorso, analizzeremo le strategie concrete e gli errori da evitare per costruire un piano di sopravvivenza aziendale. Vedremo come ogni decisione, dalla scelta dello storage alla certificazione di un data center, impatti direttamente la tua capacità di resistere a un’interruzione imprevista.
Sommario: Guida alla sopravvivenza aziendale: oltre il semplice backup
- Perché il tuo backup è inutile se non hai mai provato il ripristino (Crash Test)
- Nastro LTO o Cloud Storage: quale conviene per l’archiviazione a lungo termine (Cold Storage)?
- Backup Immutabile: come configurare lo storage in modo che nemmeno l’admin possa cancellarlo
- Il “Manuale di Crisi”: l’errore di averlo salvato solo sul server che si è appena rotto
- DRaaS (Disaster Recovery as a Service): come riaccendere i server nel cloud in 15 minuti
- L’errore di ripristinare i backup su macchine ancora infette
- Tier III o Tier IV: vale davvero la pena pagare il 30% in più per l’uptime?
- Terremoti e alluvioni in Italia: perché tenere i dati solo in sede è un rischio inaccettabile?
Perché il tuo backup è inutile se non hai mai provato il ripristino (Crash Test)
Avere una copia di sicurezza dei dati e non testarne mai il ripristino è come possedere un’auto con un airbag che non sai se funzionerà al momento dell’impatto. È una falsa sicurezza che può costare la vita dell’azienda. La domanda cruciale non è “abbiamo un backup?”, ma “in quanto tempo e con quale efficacia possiamo tornare operativi usando quel backup?”. La realtà è che molti piani di ripristino falliscono al primo tentativo reale a causa di incompatibilità hardware, procedure non documentate o semplicemente errori umani sotto pressione. Per questo, la simulazione non è un’opzione, ma il cuore della strategia di resilienza operativa.
Il concetto di “Crash Test” controllato diventa fondamentale. Si tratta di simulare scenari di disastro in un ambiente isolato per misurare con precisione i tempi di ripristino (RTO) e la perdita di dati (RPO). Questo processo non solo valida la tecnologia, ma addestra il team a rispondere in modo coordinato, trasformando un manuale teorico in una memoria muscolare collettiva. Dati allarmanti confermano questa necessità: secondo uno studio, quasi il 60% delle PMI italiane che subiscono un’interruzione significativa dei sistemi fallisce entro i sei mesi successivi. Questo non accade per la perdita dei dati, ma per l’incapacità di ripartire abbastanza in fretta.
Lo standard internazionale per la continuità operativa ISO 22301 sottolinea un punto chiave: i test devono essere condotti in modo da minimizzare il rischio per le operazioni correnti, ma devono essere abbastanza realistici da fornire metriche attendibili. Non basta un semplice ripristino di file; serve una prova generale che metta sotto stress l’intera catena del ripristino.
Il tuo piano d’azione: Protocollo di Crash Test Controllato
- Livello 1 – Test da tavolo: Organizza una riunione con i responsabili di ogni area. Simula verbalmente un’emergenza (es. “il server principale è offline”) e verifica passo dopo passo le procedure documentate. Chi chiama chi? Dove sono le password? Le responsabilità sono chiare?
- Livello 2 – Ripristino parziale in sandbox: Scegli un’applicazione critica (es. il gestionale) e prova a ripristinarne il backup su un server di test isolato. L’obiettivo è verificare l’integrità dei dati e il tempo tecnico necessario, senza impattare la produzione.
- Livello 3 – Failover simulato completo: Se disponi di un sito secondario o di una soluzione DRaaS, pianifica (idealmente durante il weekend) il passaggio completo dell’operatività. Fai funzionare l’azienda dall’ambiente di recupero per almeno 24 ore per testarne le performance sotto un carico di lavoro reale.
- Analisi e Miglioramento: Documenta ogni singolo problema riscontrato durante i test, dal più piccolo al più grande. Aggiorna il piano di ripristino di conseguenza. Questo report è oro puro per la tua resilienza.
- Pianificazione Trimestrale: Rendi i test un appuntamento fisso, almeno a livello 1 e 2. La tecnologia e le persone cambiano, e un piano non aggiornato è un piano inutile.
Ignorare questa fase significa scommettere il futuro dell’azienda sulla speranza che tutto funzioni perfettamente nel momento di massima crisi. Una scommessa che pochi possono permettersi di perdere.
Nastro LTO o Cloud Storage: quale conviene per l’archiviazione a lungo termine (Cold Storage)?
Quando si parla di archiviazione a lungo termine (cold storage), ovvero la conservazione di dati a cui si accede raramente ma che devono essere mantenuti per conformità legale o scopi storici, la scelta si riduce spesso a due mondi: il nastro magnetico (LTO) e il cloud storage. Per un imprenditore attento ai costi, la decisione non può basarsi solo sul prezzo per Gigabyte, ma deve considerare il TCO (Total Cost of Ownership), che include hardware iniziale, manutenzione, e soprattutto i costi di recupero dei dati.
Il nastro LTO, sebbene possa sembrare una tecnologia datata, offre un costo per Terabyte estremamente basso e una grande affidabilità nel tempo, con una durata dei supporti che può superare i 30 anni. Il principale svantaggio è l’investimento iniziale in unità a nastro (tape library) e la necessità di una gestione manuale o semi-automatica. Inoltre, il tempo di ripristino è più lungo, poiché richiede il recupero fisico del nastro e il suo caricamento.

D’altro canto, il cloud storage, con servizi come AWS Glacier o le alternative di provider italiani, elimina l’investimento hardware iniziale e offre un modello pay-per-use. La gestione è semplificata e i dati sono accessibili da qualsiasi luogo. La criticità nascosta, però, risiede nei costi di “egress”: il recupero di grandi quantità di dati dal cloud può diventare molto oneroso, trasformando un’operazione di ripristino in una spesa imprevista e salata. È fondamentale leggere attentamente le clausole contrattuali relative ai costi di uscita.
Per una PMI italiana, la scelta dipende fortemente dal volume dei dati e dalla frequenza di accesso prevista. Un’ analisi comparativa del TCO a 5 anni mostra chiaramente come i costi si evolvono nel tempo.
| Parametro | LTO-9 | Cloud Storage (AWS Glacier) | Aruba Cloud Object Storage |
|---|---|---|---|
| Costo iniziale hardware | €15.000-20.000 | €0 | €0 |
| Costo storage annuale | €500 (nastri) | €480/anno | €360/anno |
| Manutenzione annuale | €2.000 | €0 | €0 |
| Costi egress/recupero | €0 | €0,09/GB | €0,05/GB |
| TCO stimato 5 anni | €27.500 | €2.400 + egress | €1.800 + egress |
La soluzione ibrida è spesso la più saggia: utilizzare il cloud per i backup recenti e operativi, che richiedono ripristini rapidi, e affidare al nastro l’archivio storico decennale, minimizzando i costi di storage a lungo termine e proteggendosi dai costi di egress imprevisti.
Backup Immutabile: come configurare lo storage in modo che nemmeno l’admin possa cancellarlo
Nel panorama delle minacce informatiche, il ransomware rappresenta il disastro per eccellenza: non solo blocca l’operatività, ma prende in ostaggio i dati e, sempre più spesso, anche i backup stessi. Gli attaccanti più sofisticati non si limitano a cifrare i server di produzione; il loro primo obiettivo è individuare e distruggere le copie di sicurezza per eliminare ogni via di fuga e forzare il pagamento del riscatto. In questo scenario, un backup tradizionale non è più sufficiente. La vera polizza di sopravvivenza si chiama backup immutabile.
Un backup immutabile è una copia dei dati che, una volta scritta, non può essere alterata o cancellata da nessuno – nemmeno dall’amministratore di sistema con i privilegi più elevati – per un periodo di tempo predefinito. Questo si ottiene tramite tecnologie come l’Object Lock su piattaforme cloud (es. Amazon S3) o funzionalità specifiche di alcuni sistemi di storage on-premise. L’immutabilità crea un “air gap” logico, una barriera invalicabile che protegge i dati di ripristino anche se un malintenzionato riesce a ottenere le credenziali di root dell’intera infrastruttura.
L’efficacia di questo approccio non è teorica, ma è dimostrata da casi reali che hanno salvato aziende dal fallimento. L’adozione di questa tecnologia sta diventando un requisito fondamentale per la stipula di polizze assicurative cyber con le principali compagnie italiane.
Studio commercialisti Roma sventa ransomware con backup immutabile
Uno studio di commercialisti romano è stato colpito da un attacco ransomware a doppia estorsione: dati criptati e minaccia di pubblicazione online. I criminali avevano ottenuto accesso all’intera rete, ma non sono riusciti a cancellare i backup archiviati su uno storage cloud con l’opzione di immutabilità attiva. Grazie a questa protezione, lo studio ha potuto ignorare la richiesta di riscatto e avviare la procedura di ripristino. Secondo una ricostruzione dell’incidente, il ripristino completo è avvenuto in sole 4 ore, contro i 3-5 giorni tipici di scenari simili, evitando non solo il costo del riscatto ma anche settimane di paralisi operativa. Questo ha dimostrato come l’immutabilità sia ormai un requisito essenziale per le polizze cyber di compagnie come Generali e UnipolSai.
Per un imprenditore, investire in un sistema di backup immutabile non è una spesa tecnologica, ma l’acquisto della certezza di poter ripartire, indipendentemente dalla gravità dell’attacco subito. È la differenza tra un intoppo operativo di poche ore e un evento che può mettere fine all’attività.
Il “Manuale di Crisi”: l’errore di averlo salvato solo sul server che si è appena rotto
Immagina lo scenario: l’azienda è ferma, i server sono irraggiungibili, il panico si diffonde. Hai un piano di Disaster Recovery meticolosamente preparato, un documento che descrive ogni passo, ogni contatto, ogni procedura. Ma c’è un problema fatale: quel documento è salvato proprio sul server che è appena andato in fumo. È l’equivalente di chiudere le istruzioni per aprire un paracadute dentro una valigia che sta precipitando nel vuoto. Un errore banale, ma incredibilmente comune, che vanifica ogni sforzo di pianificazione.
Il “Manuale di Crisi”, o piano di continuità operativa, deve essere trattato come un vero e proprio kit di sopravvivenza, accessibile offline e al di fuori dell’infrastruttura aziendale. Non può essere un semplice file Word in una cartella condivisa. Deve esistere in molteplici formati e luoghi, pronto per essere consultato nel momento del caos, quando la connettività è assente e la lucidità scarseggia. La sua funzione è quella di fornire una guida chiara e immediata per le prime, critiche ore del disastro.

Preparare questo kit non richiede investimenti tecnologici complessi, ma un cambio di mentalità: pensare al peggior scenario possibile e prepararsi di conseguenza. Avere a portata di mano i numeri di telefono giusti, le credenziali di emergenza e le procedure base può ridurre i tempi di reazione da ore a minuti, un fattore che, come abbiamo visto, è determinante per la sopravvivenza.
Ecco gli elementi essenziali che dovrebbero comporre il tuo kit di sopravvivenza digitale e analogico, come suggerito da diverse strategie a prova di emergenza:
- Copie cartacee plastificate del piano di emergenza, custodite in una cassaforte ignifuga sia in sede che in un luogo esterno sicuro.
- Una chiavetta USB criptata con le credenziali di root, le procedure base e una copia digitale del piano, da conservare off-site (es. a casa dell’imprenditore o in una cassetta di sicurezza).
- Un account cloud personale (es. Dropbox, Google Drive) protetto con autenticazione a due fattori, contenente una copia dei documenti critici.
- Una lista contatti stampata e plastificata: numero unico emergenze (112), contatto diretto della Polizia Postale, il consulente IT, il legale specializzato in cyber law e il broker assicurativo.
- Il numero verde del Garante per la Privacy (06-696771) per la notifica obbligatoria in caso di data breach, da effettuare entro 72 ore.
- Le credenziali di un indirizzo PEC di emergenza, non legato al dominio aziendale, per le comunicazioni ufficiali e legali.
La resilienza di un’azienda non si misura solo dalla robustezza dei suoi server, ma anche dalla solidità dei suoi processi “analogici” nei momenti in cui la tecnologia la abbandona.
DRaaS (Disaster Recovery as a Service): come riaccendere i server nel cloud in 15 minuti
Per molte PMI, l’idea di allestire un sito di disaster recovery secondario è proibitiva. I costi per duplicare hardware, connettività e licenze, uniti alla complessità di gestione, rendono questa opzione praticabile solo per le grandi corporation. Questo ha creato per anni un divario di resilienza, lasciando le aziende più piccole esposte a rischi enormi. Oggi, questo divario è stato colmato da una soluzione chiamata DRaaS (Disaster Recovery as a Service).
Il concetto è semplice ma potente: invece di possedere un sito di recupero, lo si affitta. Un provider DRaaS replica costantemente i server critici della tua azienda (siano essi fisici o virtuali) presso i suoi data center. In caso di disastro, con pochi clic da un portale web, è possibile “accendere” queste repliche nel cloud e reindirizzare il traffico degli utenti. L’intera azienda può tornare operativa in un lasso di tempo che va da pochi minuti a poche ore, a seconda del servizio scelto, trasformando un potenziale disastro di settimane in un’interruzione gestibile.
Per un imprenditore, il DRaaS sposta l’investimento da un oneroso CAPEX (acquisto di hardware) a un prevedibile OPEX (canone mensile). Questo non solo rende il Disaster Recovery economicamente accessibile, ma garantisce anche l’accesso a tecnologie e competenze di livello enterprise. La scelta del provider giusto, tuttavia, è cruciale e deve tenere conto di fattori specifici per il mercato italiano, come la localizzazione dei data center (per la latenza e la conformità GDPR) e la disponibilità di supporto in lingua italiana 24/7.
Ecco un confronto tra alcuni dei principali provider DRaaS con una solida presenza in Italia, per aiutare a orientare la scelta.
| Provider | RTO/RPO | Data Center Italia | Supporto 24/7 italiano | Costo mensile PMI |
|---|---|---|---|---|
| Aruba Cloud | RTO 4h / RPO 1h | Arezzo, Ponte San Pietro | Sì | €500-1500 |
| Azure (Microsoft) | RTO 2h / RPO 15min | Milano (Region) | Parziale | €800-2000 |
| Irideos | RTO 1h / RPO 5min | Milano, Roma, Verona | Sì | €600-1800 |
| AWS | RTO 1h / RPO continuo | Milano (Local Zone) | No | €1000-2500 |
Il DRaaS democratizza la continuità operativa, offrendo alle PMI lo stesso livello di protezione che un tempo era un lusso per pochi. Non si tratta più di “se” implementare un piano di recupero, ma di scegliere il partner di servizio più adatto alle proprie esigenze di sopravvivenza.
L’errore di ripristinare i backup su macchine ancora infette
Nel mezzo di una crisi da ransomware, l’istinto primario è uno solo: ripristinare i backup il più velocemente possibile per tornare operativi. Questo istinto, però, può portare a un errore catastrofico: riattivare i dati su un’infrastruttura che è ancora compromessa. È come spegnere un incendio in una stanza e poi riarredarla senza prima verificare se ci sono ancora braci accese sotto il pavimento. Il risultato è quasi sempre una re-infezione immediata, che vanifica il ripristino e riporta la situazione al punto di partenza, spesso con danni peggiori.
Gli attaccanti moderni sono pazienti. Spesso, prima di sferrare l’attacco finale, si nascondono per settimane o mesi all’interno della rete, installando “backdoor” (porte di servizio nascoste) su più sistemi. Ripristinare i dati su un server che ospita ancora una di queste backdoor significa semplicemente consegnare agli hacker la chiave della nuova infrastruttura. Peggio ancora, alcuni ransomware sono progettati per “dormire” all’interno dei file di backup stessi, pronti a riattivarsi non appena i dati vengono ripristinati.
Per questo motivo, la procedura corretta post-attacco non inizia con il ripristino, ma con l’isolamento e la bonifica. Come sottolineato dall’Agenzia per la Cybersicurezza Nazionale (ACN), l’ente governativo italiano di riferimento, la priorità assoluta è un’altra.
La prima azione dopo un attacco non è il ripristino, ma l’isolamento e l’analisi per identificare la causa radice.
– ACN – Agenzia per la Cybersicurezza Nazionale, Linee guida per il ripristino post-ransomware
Questo significa creare una “Clean Room”, un ambiente di rete completamente nuovo e isolato, composto da hardware vergine o formattato a basso livello. Solo all’interno di questo ambiente sicuro si può procedere al ripristino. Prima, però, i backup stessi devono essere analizzati e “disinfettati”, utilizzando strumenti di scansione avanzati e facendoli girare in una sandbox (un ambiente di test isolato) per assicurarsi che non contengano codice malevolo dormiente. Solo dopo aver validato l’integrità dei dati e la pulizia dell’ambiente, si può procedere alla riconnessione graduale alla rete principale, monitorando attentamente ogni anomalia.
La fretta, in un processo di disaster recovery, è la peggiore nemica. Un’ora in più dedicata alla bonifica può salvare settimane di lavoro e prevenire un secondo, e spesso fatale, disastro.
Tier III o Tier IV: vale davvero la pena pagare il 30% in più per l’uptime?
Quando si sceglie un data center per ospitare i propri server o si seleziona un provider di servizi cloud, ci si imbatte spesso nella classificazione “Tier”. Questi livelli, definiti dall’Uptime Institute, certificano la ridondanza e l’affidabilità di un’infrastruttura. Un data center Tier III garantisce un uptime del 99,982% (massimo 1,6 ore di fermo all’anno) con componenti ridondati, ma richiede fermi programmati per la manutenzione. Un Tier IV, invece, è completamente fault-tolerant: ogni componente è duplicato e attivo, garantendo un uptime del 99,995% (massimo 26 minuti di fermo all’anno) e nessuna interruzione per manutenzione.
La domanda che un imprenditore si pone è legittima: ha senso pagare un premio che può arrivare al 30% o più per passare da Tier III a Tier IV, per guadagnare circa un’ora di uptime teorico all’anno? La risposta, ancora una volta, non è tecnica, ma puramente finanziaria. Dipende interamente dal costo orario del fermo macchina per la tua specifica attività. Un’ora di downtime ha un impatto molto diverso per un e-commerce durante il Black Friday rispetto a uno studio di architettura in una giornata lavorativa standard.
Analisi costo/beneficio: e-commerce vs studio di architettura
Un’ analisi di convenienza basata su scenari reali in Italia illustra perfettamente questo concetto. Un e-commerce che fattura 10.000 € all’ora durante il picco del Black Friday calcola che il costo aggiuntivo per un data center Tier IV (circa 3.000 €/mese in più) viene completamente ripagato se si evitano anche solo 18 minuti di downtime in un anno. Per questo tipo di business, l’investimento è non solo giustificato, ma necessario. Al contrario, per uno studio di architettura il cui fatturato orario medio è di 500 €, lo stesso investimento richiederebbe di evitare 6 ore di downtime all’anno per raggiungere il pareggio. In questo caso, un’infrastruttura Tier III rappresenta un compromesso molto più ragionevole ed economicamente efficiente.
La maturità del mercato italiano offre oggi una buona scelta di infrastrutture certificate, con oltre 15 data center certificati Tier III o Tier IV distribuiti sul territorio, tra cui strutture di eccellenza come il Global Cloud Data Center di Aruba a Ponte San Pietro (BG), il campus di Irideos a Milano e il data center Avalon. Questo permette di fare una scelta informata, basata non solo sul livello di Tier ma anche sulla vicinanza geografica, che impatta la latenza.
Scegliere il livello di Tier corretto è un esercizio di bilanciamento tra il costo della prevenzione e il costo potenziale del disastro. Un calcolo che ogni imprenditore dovrebbe fare con la calcolatrice alla mano.
Da ricordare
- Il vero rischio non è l’evento (incendio, attacco, alluvione), ma il tempo di inattività che ne consegue. L’obiettivo è misurare e ridurre questo tempo.
- Un piano di Disaster Recovery non testato è solo un documento senza valore. I “Crash Test” periodici sono l’unica garanzia di efficacia.
- La scelta tra tecnologie (LTO, Cloud, DRaaS) e infrastrutture (Tier III/IV) deve essere guidata da un’analisi finanziaria del costo del fermo macchina, non da preferenze tecniche.
Terremoti e alluvioni in Italia: perché tenere i dati solo in sede è un rischio inaccettabile?
Il territorio italiano è esposto a un rischio idrogeologico e sismico che non può essere ignorato in nessuna strategia di continuità operativa. Terremoti, alluvioni, frane: questi non sono scenari remoti, ma eventi ricorrenti che hanno un impatto devastante sul tessuto produttivo. Affidare la totalità dei propri dati e della propria infrastruttura IT a un’unica sede fisica, per quanto sicura, equivale a scommettere contro la statistica. Un singolo evento catastrofico localizzato può spazzare via non solo i server di produzione, ma anche i backup on-premise, lasciando l’azienda senza alcuna possibilità di ripartenza.
L’esperienza di chi ha vissuto questi disastri è la testimonianza più potente. La differenza tra chi è riuscito a ripartire in poche ore e chi è rimasto paralizzato per settimane, o ha chiuso definitivamente, si è quasi sempre ridotta a una singola scelta strategica: avere o non avere una copia dei dati e un piano di ripristino off-site, ovvero in una località geograficamente distante e sicura.
Testimonianza dall’Emilia-Romagna: l’alluvione del maggio 2023
Durante la devastante alluvione che ha colpito l’Emilia-Romagna, molte aziende si sono ritrovate con i capannoni e gli uffici sommersi dall’acqua. Un reportage condotto tra gli imprenditori locali ha evidenziato un netto divario. Le aziende che avevano adottato soluzioni di backup o DRaaS su cloud sono state in grado di riprendere le attività amministrative e commerciali in 24-48 ore, facendo lavorare i dipendenti da remoto. Quelle che si affidavano unicamente a server e backup locali sono rimaste ferme. Un imprenditore di Ravenna ha dichiarato: “Il nostro backup su cloud ci ha salvato. Potevamo accedere a tutto da casa. I nostri concorrenti con i server solo in sede sono rimasti fermi per tre settimane, cercando di recuperare hardware distrutto.”
Per mitigare questo rischio geografico specifico, la best practice riconosciuta a livello internazionale, e particolarmente adatta al contesto italiano, è la strategia 3-2-1-1-0. È un’evoluzione della classica regola 3-2-1:
- 3 copie totali dei dati critici.
- 2 supporti di storage diversi (es. dischi locali e cloud).
- 1 copia conservata off-site, fisicamente lontana dalla sede principale (almeno 100km).
- +1 copia in una regione geologica e climatica diversa (es. se la sede è in una zona sismica come Catania, la copia off-site dovrebbe essere a Milano).
- 0 errori nei test di ripristino, da effettuare obbligatoriamente con cadenza almeno trimestrale.
Nel contesto italiano, la geodistribuzione dei dati non è un lusso, ma una necessità strategica fondamentale. L’investimento in una soluzione off-site è il prezzo da pagare per la tranquillità di sapere che, qualunque cosa accada alla sede fisica, l’azienda potrà continuare a esistere.