In ambito di gestione delle risorse, la virtualizzazione dei server è uno dei temi di grande attualità e di fronte alla possibilità di realizzare importanti risparmi all’interno dei proprio ambiente IT, sono sempre più numerose le aziende interessate a mettere in opera tale tecnologia.
A tanto interesse però, non sempre corrisponde altrettanta informazione su che cosa si tratti in realtà, quali siano i requisiti e come sia necessario procedere perché alla fine i risultati siano effettivamente quelli attesi.
Per risultare efficace, la virtualizzazione deve però rientrare in un progetto più completo di ottimizzazione rivolto a ridurre in misura sensibile i costi legati al data center. Il principio generale è quello di rendere una tale infrastruttura più dinamica di quanto si sia rivelata fino ad oggi, in modo da superare l’esigenza di dimensionare i server sulla base dei picchi massimi di domanda. Tra i pionieri di queste strategie, da qualche tempo Fujitsu Siemens è uno dei maggiori interpreti. “L’idea intorno alla quale ruota la strategia dei Dynamic Data Center (DDC) è di ottimizzare un po’ meglio le infrastruttura partendo dalla considerazione che in un ambiente tradizionale le macchine sono sotto utilizzate – spiega Mario Guarnone, marketing operation manager di Fujitsu Siemens -. I server hanno fattori di saturazione in termini di CPU, memoria e altro che vanno da un 50% delle macchie proprietarie (Unix) fino al 10% delle macchine standard, server Intel, con sistemi operativi Microsoft e Linux”. Un aspetto, ci viene sottolineato, che ormai sempre più spesso non è prerogativa delle grandi aziende, ma coinvolge anche le attività di dimensioni inferiori.
In quest’ottica, quindi, la virtualizzazione rappresenta solamente una delle tecniche che permette di saturare la capacità dei server in questione. L’idea è di associare la stessa risorsa fisica a identità di macchine che supportino applicazioni e processi diversi. Il risultato, oggi, è frutto di una serie di ricerche ed esperimenti avviati qualche tempo fa: “I primi esempi di questo tipo di approccio risalgono a 3-4 anni fa quando ci sono stati proposti una serie di problemi specifici da parte di clienti – spiega Guarnone -. Abbiamo intuito che non si trattava di questioni limitate a quel cliente, ma stavamo parlando di un approccio che poteva essere esteso ad aree applicative e segmenti di mercato diversi”.
Un punto di vista tutto nuovo
Il risultato è sfociato in una serie di soluzioni mirate a intervenire a sostegno della flessibilità computazionale in ambiti ben precisi: “Il primo è stato Flexframe per SAP, una soluzione che consente l’assegnazione dinamica delle risorse rivolta alle aziende che evidentemente utilizzano SAP. Anche in questo caso il concetto che sta dietro è la considerazione che in data center statico tradizionale in genere ho un accoppiamento statico tra server e istanza applicativa”
L’esempio del gestionale è uno di quelli che più di ogni altro aiuta a comprendere come vengano attualmente sottosfruttate le risorse di calcolo: “Un’azienda che impiega SAP per la gestione della struttura commerciale, dal forecast al pagamento dei commerciali, utilizzerà una serie di strumenti di business intelligence per una serie di analisi e per fare le previsioni mensili. A fine mese confronterà i dati di vendita con i forecast per calcolare le provvigioni. Si ha quindi l’impiego di due moduli che vanno in esecuzione in tempi diversi a fine mese e al momento del pagamento. In un sistema tradizionale, questi due moduli sono assegnati a macchine distinte con picchi di esecuzione in momenti separati. Il principio è quello di assegnare in modo non statico le risorse ai diversi moduli e quindi riuscire un tempi diversi ad assegnare alla stessa macchina moduli autonomi”.
In pratica, un nuovo modo di vedere il data center, anche a costo di stravolgere abitudini consolidate nel tempo: “Questo si realizza prima di tutto attraverso uno storage esterno centralizzato e condiviso tra tutte le informazioni relative ai moduli che devono andare in esecuzione. Dopodiché ho bisogno di un nodo di controllo che intercetti le richieste di messa in esecuzione di un modulo, lo vada ad assegnare alla risorsa più adatta e libera in quel momento e lo liberi una volta terminato il lavoro”.
Come prevedibile però, l’ottimizzazione di un data center va oltre il gestionale: “Abbiamo anche un prodotto equivalente per ambiente Oracle application server e soluzioni di virtualizzazione per un approccio più legato alla tecnologia – sottolinea Guarnone -. Bladeframe permette di fare una virtualizzazione e 360° su un’area applicativa, dove posso applicare gli stessi concetti di provisioning dinamico delle risorse a tutte le macchine con architettura standard: server Intel o Intel-like e macchine Microsoft o Linux”.
Ritorno a portata di mano
Dal punto di vista delle aziende utenti, che i server in genere già li hanno, non è probabilmente facile convincersi della necessità di fare nuove investimenti subito dopo aver dimostrato di avere a disposizione un’infrastruttura sfruttata in minima parte. A sostegno della propria offerta, Fujitsu Siemens presenta però numeri decisamente interessanti: “Da analisi che abbiamo realizzato partendo dai due prodotti Flexframe in modo specifico per l’area SAP e andando a valutare su un numero ampio di clienti qual è il ritorno dell’investimento – rivela Guarnone -, è risultato che la riduzione del costo di esercizio è compresa tra il 40 e il 50%. In sostanza, portare in azienda una soluzione di questo genere ha un break even point dopo circa un anno e mezzo”.
Un’altra considerazione importante da tenere presente in materia di virtualizzazione è la necessità di avere applicazioni nuove progettate secondo un approccio del tutto nuovo: “Si parla inoltre molto di service oriented architecture: l’applicazione non sarà più un monolito, ma una serie di servizi espletati da una serie di moduli di base. Applicazioni diverse possono quindi essere costruite sulla base degli stessi moduli collegati in modo diverso su una architettura diversa”.
Per quanto riguarda inoltre, il numero di macchine presenti in un datacenter, la motivazione principale, per quanto importante, di una strategia di virtualizzazione non deve essere la sua riduzione. “Non si parla tanto di diminuzione del numero di macchine, ma di infrastruttura capace di allocare un cero numero di unità ‘spear’, macchine di backup. Se una delle macchine cade, il sistema è in grado di allocare in modo dinamico a una delle macchie spear l’istanza che era in esecuzione sulla macchina caduta. Il vantaggio è che non devo necessariamente duplicare l’intera infrastruttura. Devo solo prevedere una macchina spear ogni tot macchine operative e questo dipende dal livello di servizio che si vuole raggiungere”.