Ma il nastro è ancora all’altezza dello storage?

di Alessandra Gualtieri

Pubblicato 28 Novembre 2011
Aggiornato 24 Febbraio 2018 09:56

logo PMI+ logo PMI+
Nastro o disco? Una panoramica che descrive lo stato dell'arte dello storage alla luce dell'evoluzione tecnologica.
Articolo gentilmente concesso da Marco Rocco, Regional Sales Director, Backup & Recovery Solutions (BRS), EMC

 

La discussione su quale sia – tra nastro e disco – il migliore supporto di memorizzazione dei dati si trascina ormai da tempo. Il backup dei dati su nastro ha fatto la sua comparsa sul mercato in un’era tecnologica molto diversa da quella attuale. Ogni evoluzione da quel momento ha contribuito a modificare completamente il panorama dello storage.

L’informatica oggi richiede una tecnologia di backup in grado di tenere il passo con crescita dei dati, virtualizzazione dei server e aspettative di un recovery più veloce in caso di guasto del sistema. Attualmente il backup basato su disco ha dato vita a nuove tecnologie storage che rendono ancora più obsoleto il nastro.

Negli ultimi cinque anni, l’adozione del backup su disco ha fatto progressi significativi. Nell’arco di questo periodo infatti, IDC ha registrato da un lato una netta diminuzione degli acquisti relativi al nastro e  dall’altro un incremento del 16,6% annuo delle richieste di tecnologie basate su disco. Il mercato disk vale già 1,7 miliardi di dollari e tra quattro anni si prevede che il suo valore aumenti fino a raddoppiare. Eppure continua il dibattito su quale supporto di backup sia preferibile, trascurando il fatto che le tecnologie di ottimizzazione dello storage hanno trasformato per sempre il backup dei dati.

La deduplicazione, l’ingrediente segreto

La deduplicazione è l’ingrediente magico delle moderne infrastrutture di backup e non può essere utilizzata su nastro! Pensiamo all’enorme quantità di dati di cui viene eseguito il backup ogni giorno o settimana e come questo abbia duplicato il numero di informazioni, modificandole in modo incrementale nel tempo e creandone sempre più versioni. Selezionando, invece ,solo i dati unici o l’ultima versione di un backup, è possibile ridurne la quantità da memorizzare da 10 a 20 volte. Questo significa che il tempo di backup giornaliero necessario si riduce almeno del 90%!

Virtualizzazione e riprogettazione del backup

La maggior parte degli analisti concorda sul fatto che la virtualizzazione dei server obbligherà le aziende a riprogettare profondamente i sistemi di backup. Secondo IDC, già oggi il numero dei nuovi server virtuali supera quello dei server fisici. Allo stesso tempo, il numero medio di macchine virtuali per host fisico è destinato a raddoppiare entro il 2014. Tecnologie di backup tradizionali come il nastro non si adattano bene ad ambienti virtuali e questa è una della ragioni principali del loro inevitabile tramonto.

Secondo un sondaggio condotto da Enterprise Strategy Group, il 25% dei professionisti IT di livello senior prevede un aumento della quantità di dati generati attraverso le tecnologie di virtualizzazione, il che comporterà a sua volta un aumento dei tempi necessari per il backup. Nella stessa indagine, oltre un terzo degli intervistati ha dichiarato che il miglioramento dei processi di backup e recovery delle infrastrutture virtuali rappresenta per loro una priorità.

Gestione semplificata dei dati sulla WAN

La deduplicazione può anche migliorare le prestazioni nel caso di più siti distribuiti, come ad esempio  le filiali o i lavoratori che utilizzano computer portatili al di fuori della sede aziendale. Trasferendo sul proprio network solo i dati unici o quelli che sono stati modificati, è possibile ridurre drasticamente i requisiti di ampiezza di banda. Se poi si vanno a consolidare i backup delle filiali con quelli dei data center della sede centrale risulta evidente il risparmio sui costi, soprattutto se si considerano le implicazioni della deduplicazione dei dati per il disaster recovery di una grande azienda.

Senza deduplicazione, molte aziende di medie dimensioni sarebbero costrette a fare i conti con la velocità ed i costi legati all’invio dei dati di backup attraverso una rete WAN. Grazie alla deduplicazione è possibile invece memorizzare più copie di backup utilizzando una frazione della capacità di storage che sarebbe necessaria senza di essa.

Un Disaster recovery più rapido

Non va però dimenticato – in primo luogo – il motivo per cui si effettua il backup dei dati. Come abbiamo visto il recovery da disco tende ad essere molto più veloce di quello effettuato da  nastro. Una ricerca IDC ha rivelato che le aziende riescono a ridurre i tempi di ripristino di oltre l’85% quando utilizzano dischi, mentre le stime del settore sostengono che le risorse di storage secondario utilizzate per il backup dei dati possono consumare capacità da cinque a 10 volte maggiori dello storage primario da proteggere.

Non sorprende quindi che la società di analisi TheInfoPro preveda che tra due anni solo il 40% dei dati di backup verrà memorizzato su nastro, contro il 75% di oggi. E grazie alla ridotta capacità necessaria per archiviare i dati deduplicati, più copie di backup possono essere memorizzate in loco per il recupero. Anziché avere solo poche settimane di dati di backup a portata di mano, la deduplicazione può fare spazio per l’equivalente di alcuni mesi. La deduplicazione rende anche più facile individuare i file specifici, con una conseguente velocità di ripristino che può essere misurata in secondi o minuti anziché in ore e giorni.

Il futuro dell’elaborazione, quindi, con le sue enormi quantità di dati, la crescente diffusione di ambienti virtuali e la necessità di recuperare i dati istantaneamente, sarà caratterizzato proprio dall’importanza della deduplicazione. La questione disco o nastro non è più in discussione. Un backup digitale dei dati con tanto di deduplicazione rappresenta l’unica scelta possibile per governare la crescita esponenziale delle informazioni!