Pubblicato il Aprile 18, 2024

Affidare la sopravvivenza della propria azienda a un’unica sede fisica in Italia equivale a ignorare la mappa dei rischi del Paese.

  • La vera resilienza non risiede nel backup, ma in un’architettura IT progettata secondo i principi dell’ingegneria geospaziale, che considera la distanza e la separazione tra placche tettoniche.
  • Soluzioni come la replica asincrona tra Milano e Roma, i cluster Active-Active e il Disaster Recovery as a Service (DRaaS) trasformano un rischio catastrofico in un evento gestibile con impatto minimo.

Raccomandazione: Smettere di pensare al Disaster Recovery come a un costo e iniziare a valutarlo come un investimento strategico nella continuità operativa, analizzando le soluzioni che offrono il miglior equilibrio tra RTO, RPO e budget.

Ogni imprenditore italiano convive, consapevolmente o meno, con una realtà geografica complessa. Il nostro Paese è un territorio magnifico ma fragile, segnato da rischi sismici e idrogeologici che non possono essere ignorati. Quando si parla di sicurezza aziendale, la discussione si ferma spesso a concetti generici come “fare il backup” o “mettere i dati in cloud”. Queste sono precauzioni necessarie, ma rappresentano solo la superficie del problema. Affidare l’intero patrimonio informativo aziendale a un’unica sede, anche se tecnologicamente avanzata, è una scommessa che nessuna organizzazione moderna può più permettersi di fare.

Il dibattito comune si concentra su quale software di backup utilizzare o sulla frequenza delle copie, trascurando il fattore più critico: la distanza fisica e, soprattutto, geologica. La vera domanda non è *se* si ha un backup, ma *dove* si trova e *quanto velocemente* può diventare operativo in caso di disastro. Se il vostro server primario e il vostro backup si trovano nella stessa città, o peggio, sulla stessa placca tettonica, non avete un piano di Disaster Recovery; avete semplicemente due copie dei vostri dati in attesa dello stesso evento catastrofico.

Questo articolo rompe con l’approccio tradizionale. Non parleremo di backup come di una pratica fine a se stessa, ma introdurremo un concetto più profondo: l’ingegneria geospaziale dell’IT. Dimostreremo come la scelta di dove ospitare i dati, la distanza tra i datacenter e la comprensione delle dinamiche di latenza e rischio legale siano le vere colonne portanti di una strategia di continuità operativa a prova di Italia. Analizzeremo le architetture, i costi e le tecnologie che permettono di trasformare un potenziale disastro da fine delle operazioni a semplice inconveniente gestito.

Attraverso un’analisi che spazia dalle scelte architetturali alla valutazione dei costi, questo approfondimento fornisce gli strumenti per navigare le complesse decisioni che ogni imprenditore deve affrontare. Esploreremo le opzioni concrete per garantire che la vostra azienda non solo sopravviva, ma continui a operare anche quando l’imprevisto diventa realtà.

Replica sincrona o asincrona: come la distanza tra i datacenter impatta sulla perdita dei dati

La base di ogni strategia di Disaster Recovery (DR) si fonda su due metriche fondamentali: l’RPO (Recovery Point Objective) e l’RTO (Recovery Time Objective). L’RPO definisce la quantità massima di dati che l’azienda è disposta a perdere, misurata in tempo (secondi, minuti, ore). L’RTO, invece, stabilisce il tempo massimo entro cui i sistemi devono tornare operativi dopo un disastro. La scelta tra replica sincrona e asincrona è una diretta conseguenza degli obiettivi di RPO e RTO, ed è intrinsecamente legata alla geografia.

La replica sincrona scrive i dati simultaneamente sul sito primario e su quello secondario. La transazione non è completa finché entrambi i siti non confermano la scrittura. Questo garantisce un RPO pari a zero: nessuna perdita di dati. Tuttavia, questa certezza ha un costo fisico: la latenza. Le leggi della fisica impongono un ritardo nella comunicazione direttamente proporzionale alla distanza. Per questo motivo, la replica sincrona è praticabile solo su distanze brevi, tipicamente entro i 100-150 km, dove la latenza rimane sufficientemente bassa da non impattare le performance applicative.

La replica asincrona, al contrario, scrive prima i dati sul sito primario e solo in un secondo momento li copia su quello secondario. Questo introduce un RPO misurabile (da pochi secondi a diversi minuti), ma permette di posizionare il sito di DR a centinaia di chilometri di distanza, superando il vincolo della latenza. Questa è la scelta obbligata per una vera resilienza geografica, ad esempio tra Milano e Roma, che si trovano su placche tettoniche diverse. Un’architettura di questo tipo è implementata da provider come Aruba, che collega il suo Hyper Cloud Data Center di Roma con i campus di Arezzo e Milano per consentire la replica in tempo reale a grande distanza.

La scelta dipende quindi da un’attenta analisi del rischio e del valore dei dati. Per le applicazioni critiche dove anche un secondo di dati persi è inaccettabile, la replica sincrona in un campus metropolitano è la via. Per la protezione da eventi catastrofici su scala regionale, la replica asincrona tra città geologicamente separate è l’unica strategia sensata.

Confronto latenza e rischio sismico tra città italiane
Tratta Distanza (km) Latenza stimata (ms) Rischio sismico differenziato
Milano-Bologna 210 2-4 Stessa placca tettonica
Milano-Roma 570 8-12 Placche diverse
Milano-Bari 880 15-20 Zone sismiche diverse

Quando scatta il piano B: l’errore di affidarsi a processi manuali durante l’emergenza

Un piano di Disaster Recovery scritto su un documento Word e chiuso in un cassetto è inutile. L’errore più comune che le aziende commettono è sottovalutare il fattore umano e il caos che si scatena durante un’emergenza reale. Affidarsi a procedure manuali per il ripristino dei sistemi significa introdurre un enorme punto di vulnerabilità proprio nel momento più critico. Immaginate lo scenario: l’ufficio è inagibile, le linee sono interrotte, il personale è sotto stress e in preda al panico. In queste condizioni, chiedere a un tecnico di trovare il nastro di backup corretto, trasportarlo fisicamente in un’altra sede, montarlo su un server “muletto” e avviare complesse procedure di ripristino è una ricetta per il fallimento.

I processi manuali sono lenti, soggetti a errori e dipendenti da poche persone chiave che potrebbero non essere disponibili. Ogni minuto perso a cercare una password, a interpretare una procedura scritta mesi prima o a risolvere un imprevisto tecnico si traduce in un allungamento dell’RTO e in un danno economico crescente. La pressione psicologica sul team IT è immensa e aumenta la probabilità di commettere sbagli che possono compromettere l’integrità dei dati o ritardare ulteriormente la ripartenza.

Team IT durante un'emergenza di disaster recovery sotto pressione

La soluzione a questa vulnerabilità è una sola: l’automazione. Un piano di DR moderno deve basarsi su processi di failover automatico. In caso di disastro sul sito primario, i sistemi devono essere in grado di rilevare l’anomalia e reindirizzare autonomamente il traffico e le operazioni sul sito secondario, senza alcun intervento umano. Tecnologie come il monitoraggio proattivo, gli script di ripristino pre-configurati e le soluzioni DRaaS (Disaster Recovery as a Service) sono progettate proprio per eliminare la dipendenza dai processi manuali.

L’automazione non solo riduce l’RTO da ore o giorni a pochi minuti, ma garantisce anche che il processo di ripristino sia testato, prevedibile e affidabile. L’investimento in automazione non è un costo tecnologico, ma un’assicurazione contro l’imprevedibilità e la fallibilità del fattore umano in condizioni di crisi estrema.

Active-Active Cluster: come far lavorare due sedi contemporaneamente sugli stessi dati

Per le aziende che non possono tollerare nemmeno un minuto di downtime, esiste un’architettura che va oltre il tradizionale modello primario/secondario: il cluster Active-Active. In questa configurazione, due o più datacenter, spesso situati a centinaia di chilometri di distanza, non sono in un rapporto gerarchico, ma operano simultaneamente come un unico sistema logico. Entrambe le sedi sono attive, servono il traffico degli utenti e lavorano sulla stessa copia, sempre sincronizzata, dei dati. Questo approccio rappresenta l’apice della resilienza e della disponibilità.

Il vantaggio principale è un RTO e un RPO che tendono a zero. Se uno dei datacenter dovesse diventare irraggiungibile a causa di un evento catastrofico, non c’è un processo di “failover” da avviare. L’altro sito, già pienamente operativo, continua a gestire l’intero carico di lavoro senza alcuna interruzione percepibile dagli utenti. Questo è reso possibile da tecnologie sofisticate come il Global Server Load Balancing (GSLB), che distribuisce in modo intelligente le richieste degli utenti al datacenter più vicino o più performante, e le tecnologie di storage che supportano i “stretch cluster”, estendendo un singolo cluster di dati su più siti geografici.

Realizzare un’infrastruttura Active-Active è un progetto complesso e oneroso, ma il mercato italiano è ormai maturo per supportarlo. Con investimenti nel settore data center in Italia che hanno raggiunto i 37 miliardi di euro nel 2024, esistono provider con l’infrastruttura necessaria. Ad esempio, realtà come CDLAN offrono datacenter conformi al livello Tier 4 a Milano e Roma, scelti da grandi clienti proprio per implementare strategie di business continuity di questo livello. Un datacenter Tier 4 è progettato per essere “fault tolerant”, con ridondanza completa di ogni componente, garantendo i massimi livelli di affidabilità.

Questo modello non solo massimizza la resilienza, ma ottimizza anche le performance, poiché gli utenti vengono sempre serviti dal sito geograficamente più vicino, riducendo la latenza. È la soluzione definitiva per le applicazioni mission-critical nel settore finanziario, e-commerce e dei servizi online.

Piano d’azione: Implementare un cluster Active-Active tra Nord e Sud Italia

  1. Identificare i carichi di lavoro critici che beneficiano del bilanciamento geografico e della massima disponibilità.
  2. Selezionare due provider di datacenter con certificazione Tier 4, idealmente uno a Milano e uno a Roma/Bari, per garantire la separazione geologica.
  3. Implementare la replica sincrona dei database utilizzando tecnologie di storage che supportano la modalità “stretch cluster” tra i due siti.
  4. Configurare un servizio di Global Server Load Balancing (GSLB) per distribuire il traffico utente in modo intelligente e automatico tra le due sedi.
  5. Eseguire test di failover automatico simulando il guasto di un intero sito e misurare i tempi di risposta e la continuità del servizio da diverse regioni geografiche.

Quanto costa replicare 10TB al giorno tra Milano e Roma?

Affrontare la questione dei costi è cruciale per ogni decisione strategica. Replicare una quantità significativa di dati, come 10TB al giorno, tra due città distanti come Milano e Roma, comporta una serie di voci di spesa che vanno ben oltre il semplice costo della connettività. L’approccio tradizionale, o “fai-da-te”, prevede la costruzione e la gestione di un’infrastruttura di Disaster Recovery proprietaria, con investimenti iniziali e costi operativi molto elevati.

Un’analisi dei costi per un DR “fai-da-te” deve includere:

  • Hardware: Acquisto di server, storage, apparati di rete e sistemi di sicurezza per il sito secondario.
  • Software: Licenze per i software di replica dei dati e di gestione dell’infrastruttura.
  • Colocation: Affitto dello spazio rack, dell’alimentazione e del raffreddamento in un datacenter secondario. Il mercato italiano della colocation è in crescita, ma rappresenta un costo mensile fisso significativo.
  • Connettività: Costo della linea dedicata ad alta capacità e bassa latenza tra i due siti, fondamentale per la replica.
  • Personale: Costo del personale IT specializzato necessario per progettare, implementare, gestire, monitorare e testare l’intera infrastruttura 24/7.

Questa strada, sebbene offra il massimo controllo, richiede un investimento iniziale che può facilmente raggiungere centinaia di migliaia di euro e costi operativi mensili molto importanti.

L’alternativa moderna è il DRaaS (Disaster Recovery as a Service). Con questo modello, un provider specializzato fornisce l’intera infrastruttura di DR come un servizio, a fronte di un canone mensile. I vantaggi economici sono evidenti: l’investimento iniziale (CAPEX) è azzerato e sostituito da un costo operativo (OPEX) prevedibile e scalabile. Il provider si fa carico di tutta la complessità infrastrutturale, della gestione e dei test, liberando il team IT interno. Il confronto tra i due modelli mostra un potenziale di risparmio enorme, rendendo il DR di livello enterprise accessibile anche a aziende di medie dimensioni.

La domanda, quindi, non è solo “quanto costa replicare?”, ma “qual è il modello più efficiente per il mio business?”. Per la maggior parte delle aziende, il DRaaS offre un rapporto costo/beneficio imbattibile, trasformando un progetto complesso e oneroso in un servizio gestito, garantito contrattualmente.

Confronto costi DR tradizionale vs DRaaS (stima per 10TB)
Componente DR Fai-da-te DRaaS Risparmio stimato
Investimento iniziale 250.000-500.000€ 0€ 100%
Costo mensile 10TB 8.000-12.000€ 3.000-5.000€ 40-60%
Personale IT dedicato 2-3 FTE 0.5 FTE 75%
Test DR annuali 50.000€ Incluso 100%

Replicare all’estero: i rischi legali di spostare il backup fuori dall’UE

Di fronte ai rischi concentrati sul territorio nazionale, l’idea di replicare i dati in un datacenter all’estero, magari in un paese considerato geologicamente più stabile, può sembrare una soluzione logica. Tuttavia, questa scelta apre un fronte di rischio completamente diverso e altrettanto insidioso: il rischio legale e giurisdizionale. Spostare dati personali di cittadini europei al di fuori dell’Unione Europea è un’operazione complessa, strettamente regolamentata dal GDPR (General Data Protection Regulation).

Il GDPR impone che qualsiasi trasferimento di dati verso paesi terzi avvenga solo a patto che vengano fornite “garanzie adeguate”. Questo significa che il paese di destinazione deve offrire un livello di protezione dei dati personali equivalente a quello europeo. Il problema è che pochi paesi al di fuori dell’UE soddisfano questo requisito in modo incondizionato. Come sottolinea l’autorità italiana, la conformità è una questione di sostanza, non di forma.

Il trasferimento di dati personali verso paesi terzi richiede garanzie adeguate secondo il GDPR, e il Garante italiano ha emanato provvedimenti specifici che le aziende devono rispettare.

– Garante per la protezione dei dati personali, Provvedimenti su trasferimenti extra-UE

Un rischio concreto è rappresentato da leggi extraterritoriali come il CLOUD Act statunitense. Questa legge consente alle autorità USA di richiedere a un provider di servizi cloud americano di consegnare i dati in suo possesso, indipendentemente da dove questi dati siano fisicamente archiviati. Questo crea uno scenario di “doppia giurisdizione” molto pericoloso.

Scenario di rischio: CLOUD Act per un’azienda italiana

Immaginiamo un’azienda manifatturiera italiana che, per il suo piano di DR, si affida a un noto provider cloud americano, scegliendo di ospitare i dati in un datacenter a Francoforte, quindi all’interno dell’UE. In caso di indagine da parte di un’agenzia governativa statunitense, il CLOUD Act potrebbe obbligare il provider a fornire accesso a quei dati, bypassando le tutele del GDPR e le autorità europee. L’azienda italiana si troverebbe così in una posizione di potenziale violazione del GDPR, pur avendo agito in apparente conformità.

Mappa concettuale dei flussi di dati tra Europa e paesi terzi con indicazioni GDPR

La strategia più sicura è quindi quella di mantenere i dati, sia di produzione che di backup, all’interno della giurisdizione dell’Unione Europea, affidandosi a provider cloud europei o a soluzioni che garantiscano contrattualmente la “data residency” e l’immunità da leggi extraterritoriali. La resilienza geografica deve essere bilanciata con la sovranità digitale.

Perché ospitare i dati a Milano o Roma cambia la tua latenza e sicurezza

La scelta tra Milano e Roma come location per i propri dati non è una semplice preferenza logistica, ma una decisione strategica che impatta direttamente su due fronti: la performance (latenza) e la sicurezza fisica (rischio geologico). L’Italia, con i suoi principali hub di interconnessione concentrati a Milano, rappresenta un caso di studio perfetto per l’ingegneria geospaziale dell’IT. Milano è il cuore pulsante della rete italiana, sede del MIX (Milan Internet Exchange) e di un’enorme concentrazione di datacenter, con oltre 238 MW di potenza IT installata nel solo 2024. Ospitare i dati a Milano significa garantire la minima latenza possibile per la maggior parte degli utenti e dei partner commerciali nel Nord Italia e in Europa.

Tuttavia, questa concentrazione rappresenta anche un punto di vulnerabilità. Sebbene la Pianura Padana sia a basso rischio sismico, non è immune da altri rischi, come quello alluvionale. La vera debolezza strategica sta nel concentrare sia il sito primario che quello di DR nella stessa area metropolitana. Un evento catastrofico su larga scala potrebbe comprometterli entrambi. Ecco perché Roma emerge come scelta strategica per un sito di Disaster Recovery. Essendo su una placca tettonica diversa e a quasi 600 km di distanza, garantisce una vera separazione geografica e geologica.

Questa strategia è fondamentale in un paese dove, secondo il Rapporto ISPRA, il 94,5% dei comuni italiani è esposto a rischi idrogeologici, frane o erosione costiera. Strumenti come la mappa dei rischi dei comuni italiani, realizzata da ISTAT, INGV e ISPRA, permettono di effettuare una valutazione oggettiva della pericolosità di un sito. Un imprenditore può e deve utilizzare questi dati pubblici per valutare la resilienza del proprio provider di datacenter. Non basta che il datacenter sia certificato Tier 4; è fondamentale sapere se sorge in un’area classificata a rischio idrogeologico elevato o a pericolosità sismica.

La strategia ottimale per un’azienda italiana è quindi un’architettura ibrida: il sito di produzione a Milano per massimizzare le performance e minimizzare la latenza, e il sito di Disaster Recovery a Roma (o in un altro hub del Centro-Sud) per massimizzare la resilienza contro eventi catastrofici su scala regionale. Questa non è una spesa, ma un’applicazione diretta di una corretta analisi del rischio al design dell’infrastruttura IT.

Questa dualità è il perno della strategia. È utile rivedere perché la combinazione Milano-Roma rappresenta un equilibrio ottimale tra performance e sicurezza.

DRaaS (Disaster Recovery as a Service): come riaccendere i server nel cloud in 15 minuti

Per molte piccole e medie imprese, l’idea di costruire un sito di Disaster Recovery geograficamente separato può sembrare un obiettivo irraggiungibile a causa dei costi e della complessità. È qui che il DRaaS (Disaster Recovery as a Service) interviene come elemento di svolta, democratizzando l’accesso a strategie di business continuity di livello enterprise. Il DRaaS è un modello di servizio gestito in cui un provider specializzato si occupa di replicare l’intera infrastruttura IT di un’azienda (server, dati, configurazioni di rete) presso i propri datacenter cloud.

In caso di disastro, il provider gestisce il “failover”, ovvero il processo di “accensione” dell’ambiente di ripristino nel cloud, rendendo i sistemi aziendali nuovamente accessibili in tempi rapidissimi, spesso nell’ordine di 15-30 minuti. Questo trasforma un RTO che per molte PMI sarebbe di giorni o settimane in un RTO misurabile in minuti e, soprattutto, garantito contrattualmente tramite SLA (Service Level Agreement). Se il provider non rispetta i tempi promessi, scattano delle penali, offrendo un livello di garanzia che un approccio “fai-da-te” non può dare.

I vantaggi del DRaaS vanno oltre il semplice ripristino rapido, specialmente nel contesto italiano, dove una superficie di 69.500 km², pari al 23% del territorio nazionale, è a rischio frane. Scegliendo un provider DRaaS italiano o europeo, si ottengono benefici cruciali:

  • Competenze specialistiche: Si ha accesso a un team di esperti di DR disponibile 24/7, senza dover assumere e formare personale interno.
  • Test illimitati: È possibile eseguire test di Disaster Recovery in qualsiasi momento, in un ambiente isolato che non impatta la produzione, per verificare che tutto funzioni come previsto.
  • Scalabilità: L’infrastruttura di DR può crescere o decrescere in base alle esigenze del business, senza dover affrontare nuovi investimenti hardware.
  • Conformità GDPR: I migliori provider garantiscono la “data residency”, ovvero che i dati replicati rimangano sempre all’interno dei confini italiani o dell’UE, risolvendo i problemi legali visti in precedenza.

Il DRaaS sposta il focus dall’acquisto di tecnologia alla sottoscrizione di un risultato: la continuità operativa. Per un imprenditore, questo significa poter contare su una ripartenza rapida e garantita, trasformando un rischio potenzialmente fatale in un costo operativo gestibile e prevedibile.

In sintesi

  • La vera sicurezza dei dati in Italia non è una questione di backup, ma di ingegneria geospaziale: posizionare i dati su placche tettoniche diverse (es. Milano/Roma) è fondamentale.
  • Affidarsi a processi di ripristino manuali durante un’emergenza è una delle cause principali di fallimento; l’automazione del failover è l’unica garanzia di un RTO basso.
  • Il DRaaS (Disaster Recovery as a Service) non è solo una soluzione tecnica, ma un modello di business che rende la resilienza di livello enterprise accessibile alle PMI, trasformando un CAPEX ingente in un OPEX prevedibile.

Come garantire l’operatività aziendale anche se l’ufficio è inagibile per un incendio?

Una strategia di Disaster Recovery completa non può limitarsi a ripristinare i server. Se un incendio, un’alluvione o un terremoto rendono inagibile la sede aziendale, i dati potrebbero essere al sicuro nel datacenter secondario, ma i dipendenti come possono accedervi e continuare a lavorare? La continuità operativa dipende tanto dalla disponibilità delle persone quanto da quella dei sistemi. È quindi indispensabile pianificare un “workplace recovery”, ovvero una strategia per fornire ai collaboratori un ambiente di lavoro alternativo in tempi brevi.

L’approccio tradizionale di avere una “sede di backup” attrezzata è estremamente costoso e poco flessibile. Oggi, la tecnologia offre soluzioni molto più agili ed efficaci, basate sul cloud. La più potente è la VDI (Virtual Desktop Infrastructure) in cloud. Con questa tecnologia, il desktop di ogni dipendente (applicazioni, file, impostazioni) non risiede sul suo PC fisico, ma su un server centrale nel cloud. In caso di emergenza, un dipendente può accedere al proprio ambiente di lavoro familiare da qualsiasi dispositivo (un nuovo laptop, un PC di casa, un tablet) dotato di una connessione internet, in genere in meno di 10 minuti.

Altre tecnologie come il Remote Desktop o le VPN consentono l’accesso da remoto, ma spesso richiedono che il PC aziendale originale sia acceso e funzionante, un’ipotesi che non regge in caso di inagibilità dell’ufficio. La VDI, invece, svincola completamente l’operatività dalla postazione fisica. Parallelamente alla tecnologia, è fondamentale predisporre un piano di comunicazione di emergenza. Sistemi di comunicazione unificata basati su cloud (VoIP, chat aziendali) permettono di mantenere i contatti anche se le linee telefoniche fisse sono interrotte. È essenziale definire una catena di comunicazione chiara, con ruoli e responsabilità predefiniti, per coordinare il personale durante la crisi.

Preparare in anticipo una documentazione essenziale in formato digitale e accessibile via cloud è l’ultimo tassello: liste di contatti di emergenza, credenziali di accesso remoto, procedure chiave e copie digitali delle polizze assicurative. Garantire l’operatività non significa solo riaccendere un server, ma rimettere l’intera organizzazione in condizione di produrre valore, ovunque si trovino le sue persone.

Per completare la strategia, è cruciale non dimenticare il fattore umano e pianificare come garantire l'accesso e la produttività dei dipendenti in ogni circostanza.

Valutare la propria esposizione ai rischi fisici e ambientali è il primo passo per costruire una strategia di resilienza efficace. L’analisi non deve essere un esercizio teorico, ma un’azione concreta che porta a un piano di mitigazione misurabile e testato. Chiedere una valutazione del rischio della propria infrastruttura IT a un partner specializzato è l’investimento più logico per garantire il futuro della propria azienda.

Domande frequenti sulla continuità operativa post-disastro

Quanto tempo serve per attivare il workplace recovery?

Con soluzioni VDI cloud-based, i dipendenti possono accedere ai loro desktop virtuali in 5-10 minuti da qualsiasi dispositivo con connessione internet.

Come coordino i dipendenti durante l’emergenza?

Attraverso un sistema di comunicazione cloud (VoIP, chat aziendali) e una catena di chiamate predefinita con numeri personali e ruoli di backup.

Quali documenti devo preparare preventivamente?

Lista contatti di emergenza, procedure di evacuazione, credenziali di accesso remoto, contratti con fornitori alternativi e polizze assicurative.

Scritto da Giulia Romano, Data Center Operations Manager e Cloud Architect con 12 anni di esperienza nella gestione di infrastrutture ibride ad alta disponibilità. Esperta in strategie di Disaster Recovery, virtualizzazione e ottimizzazione energetica (Green IT).