La corsa a ostacoli verso il disaster recovery

di Giuseppe Goglio

6 Novembre 2008 09:00

logo PMI+ logo PMI+
Speso assenti o trascurati, i piani di emergenza IT nelle aziende possono ricevere un nuovo impulso grazie alla virtualizzazione

Nonostante gli esempi di ingenti danni subiti in seguito alla perdita di dati non siano più un’eccezione, le strategie di disaster recovery non sono ancora prese in considerazione con la necessaria importanza. D’altra parte, a questo proposito, le aziende guardano con crescente interesse alle opportunità offerte dalla virtualizzazione. Questo in estrema sintesi quanto emerge dalla quarta edizione dello studio annuale IT Disaster Recovery realizzato da Symantec. In particolare, lascia perplessi come il coinvolgimento dei dirigenti aziendali nelle fasi di pianificazione del disaster recovery invece che aumentare sia diminuito; dal 55% al 33% nel giro di dodici mesi. La virtualizzazione invece, risulta particolarmente attraente soprattutto per la possibilità di mantenere il controllo delle informazioni aziendali anche in presenza di una crescita costante nei volumi.

Dalla teoria alla pratica

Circa un terzo delle imprese coinvolte nella ricerca ha ammesso di aver dovuto mettere in pratica almeno una parte dei piani di disaster recovery approntati. Tra le cause principali: errore a livello di hardware e software (36% delle imprese), minacce esterne alla sicurezza (28%); interruzione della corrente/malfunzionamenti/problemi (26%), disastri naturali (23%), gestione di problematiche IT (23%), fuoriuscita o perdita dei dati (22%), comportamenti accidentali o intenzionali da parte dei dipendenti (21%).

Inoltre, anche se risultano esserci miglioramenti per quanto riguarda il successo dei test, un terzo degli intervistati ritiene che questo tipo di collaudi possa avere delle ripercussioni sui clienti, mentre un quinto è certo che queste attività generino conseguenze negative a livello di vendite e fatturato dell’azienda. Nel dettaglio, tra le cause di tali insuccessi spiccano l’errore umano (35%), il malfunzionamento della tecnologia (29%), l’infrastruttura IT insufficiente (25%), piani obsoleti (24%) e processi inadeguati (23%). Tra chi invece non effettua test regolari, le motivazioni sono tra le più diverse. Si va dalla mancanza di disponibilità del personale (39%) a interruzioni delle attività dei dipendenti (39%), a problemi di budget (37%) e disagi alla clientela (32%).

Tuttavia, il 31% degli intervistati ha ammesso che sarebbe in grado di ripristinare le operazioni di base in un solo giorno qualora un evento disastroso dovesse interessare il data center principale. Da aggiungere poi che solo il 3% ha ammesso di essere in grado di ripristinare le operazioni di base nell’arco di 12 ore, mentre quasi la metà, il 47%, ha asserito di doverci impiegare almeno una settimana.

Verso la virtualizzazione

Nella media, gli intervistati hanno indicato come mission- critical il 56% delle proprie applicazioni (rispetto al 36% registrato nel 2007). In tempi di budget IT limitati diventa così ancora più complesso riuscire a mantenere e garantire la disponibilità di una quantità superiore di applicazioni critiche. Tra le soluzioni possibili per non perdere il controllo della situazione, la riduzione dei server inutilizzati e l’aumento di capacità dei restanti. Considerazioni che hanno come sbocco naturale la virtualizzazione.

Un aiuto a migliorare la situazione sembra quindi poter arrivare da questa tecnologia recente. La virtualizzazione è la ragione primaria alla base della decisione di rivedere i piani di disaster recovery, una scelta che accomuna il 55% degli intervistati sul piano globale – con una punta del 64% per il Nordamerica. In alcuni casi la virtualizzazione viene messa in pratica proprio in risposta alle necessità di disaster recovery.

Le applicazioni e i dati all’interno di ambienti virtuali pongono però una sfida complessa in quanto i processi tipicamente associati ai contesti fisici possono rivelarsi non idonei per quelli virtuali. Inoltre, gli strumenti di disaster recovery nativi degli ambienti virtuali sono giudicati ancora immaturi e incapaci di garantire la protezione di livello aziendale. Gli intervistati hanno affermato che il 35% dei loro server virtuali non è attualmente previsto nei piani aziendali di disaster recovery e solo il 37% degli individui coinvolti nella ricerca ha confermato di provvedere effettivamente al backup di tutti i sistemi virtuali presenti in azienda.

Gli scogli da affrontare

Una delle sfide maggiori legate all’esecuzione del backup dei sistemi virtuali è data, secondo il 54% degli intervistati, dalla limitazione delle risorse disponibili, un problema che rimanda direttamente alla necessità di razionalizzare e di automatizzare. A livello mondiale il 35% ha indicato l’esagerata diversificazione degli strumenti come principale sfida alla tutela di dati e di applicazioni mission-critical all’interno di ambienti fisici e virtuali. Le difficoltà legate a una tale complessità di strumenti per ambienti fisici e virtuali includono costi di formazione maggiori, inefficienze sul piano operativo, costi software aumentati e forza lavoro frammentata. Al secondo posto nella classifica delle sfide, a pari merito con un 33% ciascuna, sono emerse la mancanza di funzioni di ripristino automatizzate e l’insufficienza di strumenti per il backup.