Pubblicato il Luglio 31, 2024

L’aumento dei costi energetici e la pressione normativa ESG non sono più problemi separati, ma due facce della stessa medaglia che l’IT deve affrontare con una strategia unitaria e misurabile.

  • Le policy di Green IT non sono solo azioni di facciata, ma leve strategiche con un ROI tangibile in termini di risparmio economico e miglioramento dei rating di sostenibilità.
  • Ogni area, dai PC desktop ai data center, nasconde inefficienze quantificabili che possono essere trasformate in risparmi attraverso tecnologie specifiche e processi di procurement intelligenti.

Raccomandazione: Iniziate con un audit energetico delle tre aree a più alto consumo (postazioni di lavoro, stampa, server) per identificare i “quick wins” e costruire un business case solido per investimenti più strutturati.

Affrontare la sostenibilità in azienda è come navigare in una tempesta perfetta. Da un lato, i costi energetici sono diventati una delle voci di spesa più critiche e volatili del bilancio. Dall’altro, la pressione per migliorare i rating ESG (Environmental, Social, Governance) da parte di investitori, clienti e normative è sempre più forte. Per un IT Director o un Energy Manager, l’approccio tradizionale basato su consigli generici come “spegnere le luci” o “stampare di meno” non è più sufficiente. Queste azioni, sebbene lodevoli, mancano della struttura e della misurabilità necessarie per essere presentate come una strategia aziendale credibile.

La vera sfida, e opportunità, risiede nel cambiare prospettiva. E se la Green IT non fosse più vista come un centro di costo o un obbligo morale, ma come una leva strategica per l’efficienza operativa e la competitività? Se ogni watt risparmiato non fosse solo un costo evitato, ma anche un punto guadagnato nel report di sostenibilità? Questo approccio richiede un cambiamento radicale: passare dalle buone intenzioni a policy concrete, misurabili e con un ritorno sull’investimento (ROI) chiaro. Non si tratta più di “essere green”, ma di implementare tecnologie e processi che ottimizzano le performance economiche e ambientali simultaneamente.

Questo articolo è una guida pragmatica pensata per chi deve trasformare gli obiettivi ESG in risultati tangibili. Esploreremo otto policy di Green IT che vanno oltre le platitudini, fornendo dati, metodologie e strumenti per quantificare i benefici. Analizzeremo come spegnere un PC da remoto, ripensare la stampa, consolidare i server o scegliere l’hardware giusto non siano azioni isolate, ma tasselli di un framework strategico che unisce ecologia ed economia, trasformando l’IT da consumatore di energia a motore di sostenibilità e profitto.

Wake-on-LAN: come spegnere i PC di notte e riaccenderli da remoto per gli aggiornamenti

Il parco PC aziendale è un gigante energetico silenzioso. Spesso, per esigenze di manutenzione notturna e aggiornamenti software, i computer vengono lasciati accesi 24/7, generando un consumo enorme e del tutto inutile per la maggior parte del tempo. Il problema è che spegnere tutto indiscriminatamente significa perdere la capacità di gestione remota. La soluzione a questo paradosso è una tecnologia matura ma sottoutilizzata: il Wake-on-LAN (WoL). Questa funzione, integrata nella maggior parte delle schede di rete, permette di “risvegliare” un computer spento inviando un segnale specifico, chiamato “Magic Packet”, attraverso la rete locale.

Implementare una policy di Wake-on-LAN significa poter spegnere sistematicamente l’intera flotta di PC a fine giornata, riducendo a zero il loro consumo durante le ore notturne e i weekend, che possono rappresentare fino al 75% del tempo settimanale. Quando il team IT ha bisogno di eseguire aggiornamenti o manutenzione, può riattivare selettivamente solo le macchine necessarie, per poi spegnerle di nuovo al termine delle operazioni. L’impatto sulla bolletta energetica è diretto e facilmente quantificabile. Inoltre, come dimostra un’implementazione avanzata, l’integrazione del WoL con i gruppi di continuità (UPS) crea una strategia di resilienza: i PC possono essere spenti in modo sicuro durante un blackout e riavviati automaticamente al ritorno della corrente, garantendo continuità operativa e risparmio energetico.

Piano d’azione: implementare il Wake-on-LAN in 5 passi

  1. Verifica compatibilità hardware: Inventariare le schede madri e le NIC della flotta per confermare il supporto WoL e abilitarlo sistematicamente a livello di BIOS/UEFI.
  2. Abilitazione a livello OS: Configurare le impostazioni di gestione energetica della scheda di rete su Windows o altri OS per ogni dispositivo, assicurandosi che il Magic Packet sia autorizzato a riattivare il sistema.
  3. Configurazione scheduler centralizzato: Implementare un software di gestione IT che permetta di pianificare spegnimenti e riattivazioni di massa per gruppi di dispositivi, definendo policy granulari per dipartimento o ruolo.
  4. Sicurezza della rete: Per evitare attivazioni malevole, implementare VLAN dedicate per la gestione e configurare l’invio di Magic Packet solo da indirizzi IP autorizzati, o utilizzare strumenti che richiedono autenticazione.
  5. Monitoraggio del ROI: Installare dashboard di misurazione del consumo energetico (tramite smart plug o software) su un campione di PC prima e dopo l’implementazione per quantificare il risparmio e presentare dati concreti al management.

Pull Printing: come risparmiare tonnellate di carta evitando le stampe lanciate e mai ritirate

Quante volte abbiamo lanciato una stampa per poi dimenticarcela sulla stampante? O peggio, per poi accorgerci di un errore e lanciarne una seconda versione, abbandonando la prima? Questo fenomeno, noto come “stampa orfana”, è una delle fonti di spreco più significative negli uffici. Si stima che circa il 30% delle stampe non venga mai ritirato, con un impatto enorme non solo sul consumo di carta e toner, ma anche sull’energia richiesta dalle stampanti. La soluzione tecnologica per eliminare questo spreco alla radice è il Pull Printing, o stampa sicura.

Il principio è semplice: invece di inviare il documento direttamente a una stampante specifica, l’utente lo invia a una coda di stampa virtuale e centralizzata. Il lavoro di stampa rimane in attesa sul server. Solo quando l’utente si reca fisicamente presso una qualsiasi stampante multifunzione abilitata e si autentica (tramite badge, PIN o smartphone), il documento viene effettivamente stampato. Questo approccio ha tre vantaggi immediati: elimina le stampe non ritirate, aumenta la sicurezza impedendo che documenti sensibili vengano lasciati incustoditi, e permette all’utente di ritirare la sua stampa dal dispositivo più comodo. Per l’azienda, il risultato è una drastica riduzione dei costi, come evidenziato dall’analisi del TCO (Total Cost of Ownership).

Sistema di stampa centralizzato con badge di autenticazione in un ufficio moderno italiano

L’adozione di un sistema centralizzato non solo ottimizza i consumi, ma si inserisce perfettamente in una strategia di digitalizzazione più ampia. In Italia, ad esempio, il Pull Printing si integra con i flussi di lavoro che prevedono la firma digitale a norma AgID, agendo come un ponte verso l’abbandono completo della carta. Inoltre, le metriche di risparmio (fogli, CO2, euro) possono essere usate per iniziative di gamification, incentivando i dipartimenti a comportamenti più virtuosi.

Il confronto del TCO tra un parco di stampanti individuali e un sistema centralizzato di Pull Printing dimostra in modo inequivocabile il potenziale di risparmio, come illustrato in questa analisi comparativa dei costi.

Confronto TCO: stampanti individuali vs sistema Pull Printing centralizzato
Voce di costo Stampanti individuali (50 postazioni) Sistema Pull Printing centralizzato Risparmio annuo
Consumo energetico €8.500/anno €3.200/anno €5.300
Carta e toner €12.000/anno €7.800/anno €4.200
Manutenzione €6.000/anno €2.500/anno €3.500
TCO Totale €26.500/anno €13.500/anno €13.000 (49%)

Server Consolidation: spegnere 5 server vecchi per metterne uno nuovo virtualizzato quanto fa risparmiare?

I data center aziendali sono spesso afflitti da un fenomeno noto come “server sprawl”: una proliferazione di server fisici, molti dei quali datati, sottoutilizzati e dedicati a una singola applicazione. Ognuno di questi server consuma energia costantemente, non solo per il proprio funzionamento ma anche per il raffreddamento necessario a mantenerlo operativo. La strategia più efficace per contrastare questa inefficienza è la consolidazione dei server tramite virtualizzazione. L’idea è di sostituire un gran numero di vecchie macchine fisiche con un unico server moderno e potente, capace di ospitare più “macchine virtuali” (VM), ciascuna con il proprio sistema operativo e le proprie applicazioni.

L’impatto di questa operazione è radicale. Un server di nuova generazione è intrinsecamente più efficiente dal punto di vista energetico rispetto a uno di 5-7 anni fa. Ma il vero guadagno deriva dal consolidamento: spegnere cinque, dieci o anche più server fisici per accenderne uno solo porta a una riduzione del consumo energetico che può variare dal 60% all’80%. Questo risparmio non riguarda solo l’alimentazione diretta dei server, ma si estende al sistema di raffreddamento, che ora deve gestire un carico termico molto inferiore, e allo spazio fisico occupato nel data center. Il risultato è un TCO (Total Cost of Ownership) drasticamente ridotto.

Ma i benefici non sono solo economici e ambientali. La virtualizzazione aumenta l’agilità operativa, semplifica la gestione dell’infrastruttura e, come sottolineano gli esperti, migliora la resilienza aziendale. Poter gestire le VM come semplici file facilita enormemente le operazioni di backup, ripristino e migrazione. Questo valore aggiunto è un elemento cruciale da considerare nel calcolo del ritorno sull’investimento.

La virtualizzazione facilita l’implementazione di piani di Disaster Recovery e Business Continuity, un valore aggiunto spesso sottovalutato nel calcolo del ROI.

– Andrea Pazienza, NTT DATA Italia – Sustainability & Green Tech Expert

EPEAT e TCO Certified: come inserire criteri ambientali nei bandi di acquisto hardware

Una strategia di Green IT efficace non può limitarsi a ottimizzare l’esistente, ma deve intervenire alla fonte: il processo di acquisto (procurement). Scegliere hardware più efficiente, durevole e riciclabile ha un impatto che si estende per tutto il ciclo di vita del prodotto, dalla produzione allo smaltimento. Per un’organizzazione, specialmente nella Pubblica Amministrazione italiana, questo significa integrare criteri ambientali specifici nei bandi di gara, andando oltre il semplice prezzo di acquisto. Fortunatamente, esistono standard e certificazioni internazionali che semplificano enormemente questo compito.

Le due certificazioni più autorevoli sono EPEAT (Electronic Product Environmental Assessment Tool) e TCO Certified. Entrambe valutano i prodotti IT (desktop, laptop, monitor) secondo una serie di criteri che includono l’efficienza energetica, l’uso di materiali riciclati, l’assenza di sostanze pericolose, la riparabilità e la responsabilità sociale del produttore. Richiedere nei bandi prodotti con certificazione EPEAT Gold o TCO Certified garantisce che l’hardware acquistato rispetti standard ambientali elevati. Per la PA italiana, è inoltre obbligatorio fare riferimento ai CAM (Criteri Ambientali Minimi), che spesso si allineano a questi standard internazionali. Integrare queste clausole trasforma il procurement da un semplice atto di acquisto a una potente leva di sostenibilità.

Studio di caso: L’approccio di Capgemini alla filiera IT sostenibile

Un’analisi condotta da Capgemini ha dimostrato che le aziende che adottano un approccio strategico alla sostenibilità IT, dal procurement al riciclo, ottengono benefici misurabili. Lo studio ha rivelato che il 61% di queste aziende ha migliorato il proprio punteggio ESG, un fattore sempre più determinante per gli investitori. Inoltre, il 56% ha registrato un aumento della soddisfazione dei clienti, a riprova del fatto che la sostenibilità è anche un potente strumento di branding e reputazione. Questo dimostra che un procurement responsabile non è un costo, ma un investimento che genera valore su più fronti.

Oltre alle certificazioni, una policy di acquisto “verde” dovrebbe considerare anche la durata di vita del prodotto e la disponibilità di parti di ricambio, nonché valutare il mercato del ricondizionato certificato per asset non critici. Infine, è fondamentale prevedere clausole che obblighino i fornitori a gestire il ritiro e il corretto riciclo dei dispositivi a fine vita (RAEE), chiudendo il cerchio della responsabilità.

Calcolatori di emissioni: come quantificare la CO2 prodotta dal tuo sito web e dalla posta elettronica

“Non si può migliorare ciò che non si può misurare”. Questa massima di Peter Drucker è il fondamento di qualsiasi strategia di Green IT seria. Prima di poter ridurre l’impronta di carbonio digitale della propria azienda, è indispensabile quantificarla. Se l’energia consumata da un server è relativamente facile da misurare, come si calcola l’impatto ambientale di un sito web visitato da migliaia di utenti o di milioni di email inviate ogni anno? La risposta sta nell’utilizzo di calcolatori di emissioni digitali, strumenti che traducono l’attività digitale in un valore tangibile: i grammi di CO2 emessi.

Questi strumenti, come il noto “Website Carbon Calculator”, funzionano secondo una metodologia standardizzata. Analizzano diversi fattori: il peso della pagina web (immagini, script), i dati trasferiti sulla rete, l’efficienza energetica del data center che ospita il sito e il mix energetico del paese in cui si trova. Il risultato è una stima delle emissioni di CO2 per ogni visita alla pagina. Lo stesso principio si applica alla posta elettronica: si calcola il peso medio di un’email, il numero di invii e l’energia consumata dai server di posta per stimare l’impronta di carbonio totale. Quantificare queste emissioni è il primo passo per identificare le aree di intervento.

Dashboard di monitoraggio emissioni CO2 digitali con grafici e indicatori ambientali

Una volta ottenuti i dati, le azioni correttive diventano evidenti: ottimizzare le immagini del sito web, utilizzare il “lazy loading” per caricare contenuti solo quando necessario, ridurre il peso degli allegati email preferendo i link a file condivisi, e scegliere provider di hosting che utilizzano energie rinnovabili. Queste ottimizzazioni non solo riducono l’impatto ambientale, ma spesso migliorano anche le performance e l’esperienza utente, creando un circolo virtuoso. Includere queste metriche nel report di sostenibilità dimostra un approccio proattivo e basato sui dati, rafforzando la credibilità dell’azienda nei confronti degli stakeholder.

Perché passare al raffreddamento a liquido per i server AI e quanto si risparmia?

L’avvento dell’Intelligenza Artificiale (AI) e del High-Performance Computing (HPC) sta spingendo le infrastrutture IT verso un nuovo limite. I server equipaggiati con GPU e processori di ultima generazione, necessari per i carichi di lavoro AI, generano una densità di calore che i sistemi di raffreddamento ad aria tradizionali faticano a gestire. Un rack che un tempo produceva 5-10 kW di calore può oggi superare i 50 kW o addirittura i 100 kW. Questo calore non solo minaccia la stabilità e le performance dei server, ma fa anche esplodere i consumi energetici dedicati al raffreddamento. In questo scenario, il raffreddamento a liquido (liquid cooling) non è più un’opzione esotica, ma una necessità strategica.

A differenza dell’aria, i liquidi hanno una capacità termica molto superiore, permettendo di trasferire il calore in modo molto più efficiente. Le tecnologie di liquid cooling, come il Direct-to-Chip (in cui il liquido raffredda direttamente i processori) o l’Immersion Cooling (in cui l’intero server è immerso in un liquido dielettrico), permettono di gestire densità di calcolo estreme mantenendo temperature operative ottimali. Questo si traduce in un risparmio energetico significativo: per i carichi di lavoro AI, il raffreddamento a liquido può garantire fino al 40% di riduzione del consumo energetico complessivo del data center. Inoltre, eliminando o riducendo la necessità di grandi e rumorosi sistemi di ventilazione, si ottiene una drastica riduzione del rumore e si libera spazio prezioso.

Studio di caso: Aruba abilita il liquid cooling per l’AI in Italia

A dimostrazione che questa tecnologia è una realtà concreta anche in Italia, il 31 luglio 2024 Aruba ha attivato il suo primo sistema di raffreddamento a liquido nel Global Cloud Data Center di Ponte San Pietro (BG). Questa mossa strategica rende Aruba il primo operatore italiano in grado di supportare nativamente la nuova generazione di hardware per AI e HPC. L’integrazione è stata realizzata in tempi record e senza necessità di spazi dedicati, dimostrando la maturità della tecnologia. L’impianto è ora in grado di garantire massima efficienza termica ed energetica per carichi di lavoro ad altissima densità, posizionando il data center all’avanguardia della sostenibilità e dell’innovazione tecnologica.

L’adozione del raffreddamento a liquido è una decisione strategica per qualsiasi azienda che investe in AI. Per fare la scelta giusta, è fondamentale valutare le diverse tecnologie disponibili e il loro ROI specifico.

Power Usage Effectiveness: come abbassare il tuo indice sotto 1.2 grazie al liquido

Per un data center, la metrica regina dell’efficienza energetica è il PUE (Power Usage Effectiveness). Questo indice, sviluppato dal Green Grid, misura il rapporto tra l’energia totale consumata dal data center e l’energia effettivamente utilizzata dall’infrastruttura IT (server, storage, rete). Un PUE “perfetto” di 1.0 significherebbe che tutta l’energia in ingresso viene usata solo per alimentare l’IT, senza sprechi per raffreddamento, illuminazione o perdite di conversione. Nella realtà, i data center tradizionali raffreddati ad aria hanno un PUE che si attesta spesso tra 1.8 e 2.2, indicando che per ogni watt usato dall’IT, quasi un altro watt viene sprecato in servizi ausiliari, principalmente il raffreddamento.

L’obiettivo di ogni Energy Manager è abbassare questo indice il più possibile. Portare il PUE sotto 1.2 è considerato un traguardo di eccellenza. Come abbiamo visto, il raffreddamento a liquido è la tecnologia chiave per raggiungere e superare questo obiettivo. Sostituendo i sistemi ad aria, che sono energeticamente inefficienti, con soluzioni Direct-to-Chip o a immersione, si riduce drasticamente l’energia dedicata al raffreddamento, abbattendo il numeratore dell’equazione del PUE. Questo non solo taglia i costi operativi, ma posiziona il data center come un’infrastruttura sostenibile e ad alte prestazioni.

L’integrazione del liquid cooling nelle infrastrutture di Aruba rientra nella strategia di innovazione dell’azienda per offrire ai clienti il massimo in termini di qualità, prestazioni e sostenibilità ambientale.

– Aruba Enterprise, Aruba Magazine – Liquid Cooling per data center

La scelta della tecnologia di raffreddamento più adatta dipende dalla densità dei rack e dagli obiettivi di ROI, come evidenziato in questa analisi comparativa delle diverse soluzioni.

Confronto tecnologie di raffreddamento per data center
Tecnologia PUE tipico Riduzione rumore Densità rack supportata ROI stimato
Raffreddamento ad aria tradizionale 1,8 – 2,2 Base 5-10 kW/rack Baseline
Direct-to-chip liquid cooling 1,1 – 1,3 -60% 30-50 kW/rack 2-3 anni
Immersion cooling 1,02 – 1,1 -90% 100+ kW/rack 3-4 anni

Da ricordare

  • L’efficienza energetica IT non è un costo, ma un investimento con un ROI misurabile in termini economici e di rating ESG.
  • Ogni area IT, dalle postazioni di lavoro ai data center, offre opportunità concrete di risparmio attraverso policy e tecnologie specifiche.
  • Quantificare l’impatto (PUE, TCO, CO2) è fondamentale per costruire un business case solido e dimostrare il valore strategico della Green IT.

Rinnovo post-garanzia: quando conviene pagare l’estensione e quando è meglio comprare nuovo

La gestione del ciclo di vita dell’hardware è l’ultimo, cruciale tassello di una strategia di Green IT. Quando un server o un PC raggiunge la fine del periodo di garanzia del produttore (OEM), si presenta una decisione critica: pagare per un’costosa estensione di garanzia, sostituire l’asset con uno nuovo o esplorare alternative? La risposta non è scontata e richiede un’analisi che bilanci costi, rischi, performance e impatto ambientale. Prendere la decisione sbagliata può portare a costi imprevisti e a un aumento della “e-waste” (rifiuti elettronici).

Sostituire sistematicamente l’hardware a fine garanzia non è sempre la scelta più sostenibile né la più economica. Un nuovo dispositivo ha un’impronta di carbonio “incorporata” dovuta alla sua produzione e al trasporto. D’altra parte, mantenere in vita un hardware obsoleto può significare consumi energetici più elevati e un rischio maggiore di guasti non coperti. La decisione deve basarsi su una matrice di valutazione che consideri più fattori. Prima di tutto, la criticità dell’asset: un server che supporta un’applicazione business-critical ha requisiti diversi da un PC per uso standard. Poi, un’analisi del TCO che confronti il costo del rinnovo con quello di un nuovo dispositivo, includendo i consumi energetici aggiornati di quest’ultimo.

Un’opzione sempre più valida è il ricorso alla Third-Party Maintenance (TPM), ovvero affidarsi a manutentori specializzati indipendenti dall’OEM, spesso più economici e flessibili, soprattutto per l’hardware fuori garanzia ma ancora perfettamente funzionante. Infine, è fondamentale considerare la compatibilità con i futuri aggiornamenti software e di sicurezza, e calcolare l’impatto della normativa italiana sullo smaltimento dei rifiuti RAEE. Solo un’analisi olistica permette di prendere una decisione che sia economicamente saggia e ambientalmente responsabile, chiudendo il cerchio di una strategia IT veramente sostenibile.

L’implementazione di queste policy trasforma il dipartimento IT da un centro di costo energetico a un motore di efficienza e sostenibilità. Per avviare questo cambiamento, il primo passo è ottenere un’analisi personalizzata del vostro parco tecnologico per identificare le aree a più alto potenziale di risparmio.

Scritto da Giulia Romano, Data Center Operations Manager e Cloud Architect con 12 anni di esperienza nella gestione di infrastrutture ibride ad alta disponibilità. Esperta in strategie di Disaster Recovery, virtualizzazione e ottimizzazione energetica (Green IT).