Sono trascorsi 15 anni da quando il Microsoft Tech Days ha chiamato per la prima volta a raccolta gli esperti del mondo della consulenza e sviluppo in ambiente Windows per fare il punto della situazione, conoscere le novità e ascoltare opinioni e pareri dei diretti interessati. Tempi in cui la comunicazione poteva contare su possibilità molto più limitate rispetto a quelle odierne e per gli addetti ai lavori l’iniziativa promossa da Mondadori era una delle rare occasioni di confronto e aggiornamento.
Anche se oggi la situazione è cambiata l’importanza del WPC resta immutata.
Progetti virtuali, prospettive reali
In apertura della tre giorni che si è tenuta al Forum di Assago (Milano), sono emersi da subito i temi portanti dello sviluppo nei prossimi mesi. Virtualizzazione e Cloud Computing domineranno, come previsto la scena, ma l’aspetto più rilevante è il modo con cui Microsoft ha deciso di muoversi, lasciando intendere che i tempi sono ormai maturi per un’adozione di massa di tali tecnologie.
«Tutti noi ogni giorno abbiamo modo di parlare con i nostri clienti e sentirli parlare dei problemi nel rendere più efficienti i propri investimenti», esordisce Will Golding, director Business & Marketing di Microsoft. «Creare valore di business vuol dire anche aiutare i nostri clienti a sfruttare meglio la tecnologia indicando loro i giusti investimenti; in questo momento significa investire nella virtualizzazione, vale a dire la possibilità di ridurre fino all’80% i server e le relative spese».
Prospettive di ritorni sugli investimenti importanti, tali da indurre il portavoce Microsoft a ribaltare un punto di vista molto attuale: «la crisi può trasformarsi in una grande opportunità di rinnovamento. Ne usciranno vincitori e vinti, ma noi possiamo aiutare i nostri clienti a trovarsi tra i primi e allora chi ne uscirà sarà più forte».
Dal punto di vista della tecnologia lato utente, la situazione odierna è il risultato di una strategia avviata a inizio secolo con l’introduzione di SharePoint, che in Italia ha riscosso consensi superiori alla media.
Più in generale, l’attenzione deve essere rivolta ora in direzione dell’abbinata software+servizi, che ha portato Microsoft a effettuare i maggiori investimenti della propria storia in data center: «l’idea è offrire al cliente la possibilità di scegliere se tenere tutto in casa oppure affidare tutto in esterni» sottolinea Golding. «Essere pronti ad assecondare chi vuole seguire lo sviluppo in casa e chi chiede invece applicazioni già pronte».
Rientrano in quest’ultima categoria la maggior parte delle Pmi, per le quali la società di Redmond ha in Italia un’attenzione particolare. Proprio dall’Italia infatti, partirà la serie di presentazioni extra Usa di Surface, la nuova interfaccia che si ispira al concetto di scrivania elettronica.
La soluzione proposta è quella di aggregare i sistemi, esporre le informazioni sulla Rete senza pregiudizi e sfruttare le possibilità offerte dai servizi online: «La vera sfida è ridurre i costi attraverso soluzioni che permettano di raggruppare più efficienza e nuovi obiettivi» conclude Golding. «In questo, un ruolo determinante sarà ricoperto dalla business intelligence».
Dietro la nuvola, Azure
La vera rivoluzione è però quella che Microsoft intende avviare a livello di infrastruttura. Non tanto per la novità assoluta (di virtualizzazione e cloud computing si parla ormai da mesi) quanto per le modalità. Appare infatti evidente l’intenzione dell’azienda di un lancio in grande stile, capace di battere sul tempo i concorrenti e affrontare di petto gli attuali dominatori del settore: «stiamo vivendo l’emergere di un nuovo tipo di piattaforma, un insieme di servizi sviluppati nella nuvola ma accessibili ovunque via Internet» afferma David Chappel, titolare di Chappell & Associates.
Per Microsoft, questa piattaforma si chiama Azure: «non solo la possibilità di eseguire applicazioni nella nuvola ma anche poter contare sulla potenza di tantissime macchine secondo un principio che va oltre l’hosting».
Dopo mainframe, minicomputer, pc, server e dispositivi mobili, secondo Chappel all’orizzonte si profila una nuova piattaforma destinata a restare nella storia IT, ma senza entrare in concorrenza con le altre.
«Il messaggio più importante è che una piattaforma di cloud computing esiste già e quando nasce una tecnologia nuova quelle vecchie non sono destinate a scomparire» sottolinea Chappel. «Ora abbiamo un’altra freccia al nostro arco, un nuovo strumento di lavoro dove la sfida è capire al meglio questo nuovo mondo al fine di ricavarne le soluzioni migliori».
VMware al centro del mirino
In attesa di scoprire tale soluzione, le idee sembrano invece ben chiare su come affrontare la sfida della virtualizzazione. Secondo un copione già visto più volte in passato, Microsoft si appresta a lanciare un attacco frontale all’attuale leader del settore: «Prendendo come riferimento una media di cinque host, il costo totale di Hyper-V è tre volte inferiore a quello di VMware» dichiara Radhesh Balakrishnan, director of Virtualization di Microsoft.
«E questo senza contare i costi di gestione fisica delle macchine e delle applicazioni».
Anche in questo caso, a stimolare l’adozione della tecnologia, interessanti prospettive economiche. A fronte di stime che indicano nel 60% la percentuale di budget speso nel raffreddamento dei locali adibiti a data center, Microsoft prevede che solo il 20% delle risorse potrà essere destinato a nuove tecnologie.
Dalla combinazione di tali considerazioni, emergono quindi le prospettive per un lancio in grande stile: «attualmente, ogni applicazione è legata a un sistema operativo e a un server, e la virtualizzazione permette di rendere indipendente le applicazioni dai server fisici» spiega Balakrishnan. «Siamo partiti dai server, ma la vediamo all’interno di tutta l’infrastruttura, desktop compresi».
Al momento, lo scoglio da superare è prima di tutto la complessità, assieme ai costi ancora elevati produce limiti del 12% nell’impiego della virtualizzazione.
Integrazione e flessibilità sono le risposte Microsoft: anche se ufficialmente viene assicurata la massima compatibilità con VMware, di fatto l’integrazione di Hyper-V in Windows rende la sfida impari.
Per quanto riguarda la flessibilità, «in ogni ambiente ci deve essere un mix di server fisici e virtuali dove l’amministratore deve essere in grado di spostare risorse sulla base delle esigenze degli utenti», conclude Balakrishnan. Microsoft questo lo rende possibile grazie a System Center».