Cloud Computing: meglio non fare confusione…

In futuro, questo lo scenario dipinto dagli addetti ai lavori, i data center viaggeranno su binari di servizio totalmente automatizzati e si parlerà in modo diffuso e pervasivo di “cloud data center”, e cioè dell’estremo stadio di evoluzione della virtualizzazione, con i centri dati virtualizzati tra loro su scala globale. Nel frattempo il lavoro da fare per gli “evangelist” del cloud computing – passaggio obbligato per arrivare allo stadio di cui sopra – è ancora tanto e c’è chi, nella fattispecie gli analisti di Gartner, non mancano di sollevare lecite osservazioni.

Questo post fa volutamente riferimento a considerazioni “vecchie” di almeno sei mesi, quando ancora la bufera della crisi non aveva ancora cambiato drasticamente lo scenario del mercato tecnologico. La riflessione di Gartner con la recessione però poco ha a che fare ed è facilmente intuibile il perché. Se il termine “cloud computing” viene utilizzato con estrema facilità e definito in molti modi diversi – generando confusione sul mercato e dentro le aziende – non è infatti colpa della crisi. Capire le diverse prospettive del fenomeno e le sue innumerevoli applicazioni, evidenziare e precisarne le modalità d’uso per ottenere benefici è quindi il compito primo cui assolvere da chi opera nel mondo IT, vendor di tecnologia ovviamente in testa.

Gartner, di suo, definisce il computing “a nuvola” come un ambiente in cui determinati servizi informatici sono distribuiti in modo scalabile e massivo in modalità “as a service” a soggetti multipli interni o esterni all’azienda attraverso l’utilizzo di tecnologie Internet. Detto questo, cosa possa finire dentro il sacco del cloud computing può diventare oggetto di soggettive interpretazioni. Con tutte le conseguenze del caso. Meglio quindi dipanare i dubbi e partire dal presupposto che il cloud si manifesta concretamente in un utilizzo più focalizzato ed efficiente delle tecnologie di virtualizzazione. Per evitare che il mettere insieme il concetto di cloud quale abilitatore tecnologico e del significato intrinseco dei servizi di computing fruibili dalla “nuvola” generi confusione. Il cloud, come lo vede Gartner, è di fatto l’accesso via Web a servizi che si estendono dalle infrastrutture di sistema (storage in primis) alle applicazioni (per esempio il Crm) e ai processi di business. Basta questo assunto a cancellare gli eventuali dubbi in materia?

Cito testualmente, per evitare di fare a mia volta confusione, quanto dichiarato dagli analisti di Gartner: “cloud system infrastructure services are a subset of cloud computing, but not the entire picture… Virtualisation often is used to implement this underlying infrastructure to support delivery of the cloud computing services…Any provider of cloud computing services must have an environment that includes an infrastructure to support their delivery”.

3503 days ago

Oracle acquista Sun. E il Cloud?

Su 01.Net vi è un articolo interessante sull’acquisto di Sun da parte di Oracle, alla fine del quale si legge:”Ma c’è un ulteriore aspetto, che secondo molti analisti potrebbe rendere più che sensata questa operazione ed è la crescente importanza di paradigmi nuovi quali virtualizzazione e cloud computing.
Gli asset di Sun potrebbero – e non poco – aiutare Oracle ad acquisire competenze e ruoli nuovi in questi due segmenti, capitalizzando per di più, anche il frutto delle numerosissime acquisizioni portate avanti da Ellison negli anni scorsi.”

Il Cloud Computing sembra assumere un ruolo sempre più importante, se viene considerato anche in ambiti così ’strategici’ come questo e indubbiamente ci vorrà ancora del tempo prima che le aziende, soprattutto quelle medio piccole, provino ad adottarlo senza sufficienti ‘rassicurazioni’ (= altre aziende che lo adottano con successo). Grazie alle prime, pioniere e di successo, il Cloud viene sempre più percepito come soluzione alle difficoltà dei CEO e CIO di conciliare maggiori performance e budget sempre più ridotti, obiettivi opposti e in conflitto tra loro.

Ancora una volta la risposta è il Web, che evolve da meta statica usata solo per cercare o pubblicare informazioni ad ambiente di lavoro e sociale dinamico. Cito il caso di Google, i cui video e case study sono ampliamente esposti su uno speciale inserto (online ovviamente) di Zerounoweb.it, che comprende video lezioni, approfondimenti, interviste. Dalla lettura di una delle aziende clienti si evince il vantaggio principale del paradigma Cloud è il Total Cost of Ownership. Attraverso i classici parametri per la misurazione del valore economico di un investimento IT, l’azienda in questione ha riscontrato che la nuova logica del Cloud Computing avrebbe garantito un costo da 2 a 3 volte inferiore rispetto alle tradizionali soluzioni. In questo caso parliamo di posta elettronia e collaborazione che avrebbero previsto l’installazione di client e server, l’acquisizione di licenze, la manutenzione e l’upgrade.

Concludo ‘linkandomi’ ad un’altro articolo interessante – Cloud computing: pronti alla partenza? – secondo il quale Gartner stima per il Cloud Computing una crescita più rapida nel quinquennio 2008-2012 per rallentare nel triennio successivo e giungere al ‘plateau’ di maturità dopo il 2015. Siamo quindi agli inizi della fase di ‘boom’, ed è il momento dove i player interessati ad avere un ruolo preminente in quello che si configura con un mercato ricco di opportunità devono giocare le loro carte.

Voi quanto vi sentite pronti?

3523 days ago

Ridurre i consumi in azienda: i Pc a 0 watt

Non tutti sanno che i pc anche quando sono spenti consumano corrente e Fujitsu ha inaugurato una nuova linea di pc desktop a 0 watt. Presentati al Cebit, le linee ESPRIMO E7935 0-Watt ed ESPRIMO P7935 0-Watt, hanno suscitato notevoli attenzioni sia da parte del pubblico che della stampa.

Queste macchine, orientate specificatamente al business, permettono un notevole risparmio in termini di energia e sono in linea con le politiche green della azienda giapponese. Uno studio Gartner ha infatti calcolato che le imprese con 2.500 PC possono arrivare a risparmiare oltre 40.000 dollari l’anno grazie alla funzione PC Power Management Activation, e altri 6.500 dollari spegnendo o disattivando le macchine quando non vengono utilizzate.

In realtà, molte aziende tengono accesi i pc per una questione di IT management, nel timore di non poter eseguire gli aggiornamenti fuori dall’orario di lavoro. Con questa tecnologia, però, anche se il PC in modalità standby non utilizza energia elettrica, resta amministrabile durante un certo periodo di tempo predefinito, in modo da poter scaricare gli aggiornamenti necessari.

I bassi consumi registrati in modalità standby non sono la sola innovazione green del PC 0-Watt: fra le altre funzioni c’è anche un alimentatore ad alta efficienza, fino all’89%, una percentuale che lo rende conforme ai requisiti ENERGY STAR 5.0 (a partire dal 1 luglio 2009). Inoltre, i PC dispongono di schede madri prive di alogeni, una presa commutata per il monitor e l’uso dei nuovi chipset e processori Intel a risparmio energetico, materiali eco-compatibili utilizzati durante l’intero processo produttivo.

3528 days ago

Gestione dei datacenter in casa Google

In occasione del “Data Center Efficiency Summit”, Google ha svelato al mondo la struttura e l’hardware dei propri data center, nell’ottica di sensibilizzare le aziende all’ottimizzazione energetica dei propri CED. Recita l’invito della azienda di Mountain View:

“Saving resources such as electricity and water is not just good for the environment, it makes good business sense too. Being “green” reduces operating costs and can keep our industry competitive; it is this economic advantage that makes efficiency truly sustainable. Join us to learn more about how Google builds and designs data centers, and to share your own opinions and ideas.”

Tenendo conto che, qualche anno fa le stime davano un peso del 5% sull’energia elettrica prodotta globalmente per i datacenter di tutto il mondo, capire come Google gestisca la questione è molto interessante.

I server sono assemblati direttamente da Google e montati su rack 2U. L’hardware delle macchine è così composto:

motherboard Gigabyte (non disponibile sul mercato)
cpu Intel Prescott o Xeon Nocona
8 banchi di memoria DIMM
2 Hard Disk
L’housing avviene in grandi container trasportabili che possono contenere fino a 1160 server e non vengono utilizzati gruppi di continuità, ma ogni server è dotato di una batteria da 12 volt.

Con questa struttura Google ha ottenuto 1,12 punti di PUE (power usage effectiveness) avvicinandosi alla perfetta efficienza energetica. L’Environmental Protection Agency ha dichiarato che sarebbe auspicabile avere tutti i data center su questi livelli entro il 2011.

3528 days ago

Security, virtualizzazione e cloud computing secondo Idc

Dall’appuntamento annuale che Idc Italia tiene a Milano sono emersi alcuni dati significativi. In particolare il mercato legato alla sicurezza IT sembra godere di un buon trend anche in questo periodo negativo. Questo andamento è, in parte, da imputare al diffondersi di una cultura tecnologica nella pubblica amministrazione, che ha forti esigenze di security legate al tema della tutela e del rispetto della privacy, e nelle PMI, che oggi utilizzano strumenti prima accessibili solo alle grosse imprese. Un fattore determinante è il web, applicazioni mobile, e-commerce e transazioni elettroniche richiedono sempre più degli standard elevati di sicurezza.

Secondo Antonio Romano, direttore di Idc Italia, vi sono tre tendenze specifiche nella security. La prima riguarda la tutela del dato non strutturato: le informazioni in azienda passano attraverso canali esterni e non più solamente centralizzati, come email, instant messaging, web e vengono utilizzati strumenti mobile come Pda, smartphone, netbook. La seconda tendenza investe il settore delle telecomunicazioni attraverso il machine-to-machine, le transizioni a catena che avvengono tra dispositivi elettronici e che devono garantire massima sicurezza dalla sorgente alla destinazione. L’ultima forte richiesta di sicurezza è nella virtualizzazione, oggi accessibile anche alle piccole e medie imprese negli ambiti del disaster recovery e della business continuity. Bisogna poi tener conto che, all’interno dell’ambito virtualizzazione, vi è una crescente propensione a coprire anche i dispositivi mobili.

L’ultima nota riguarda il Cloud Computing, sempre secondo Antonio Romano, l’IT, nel futuro più immediato, dovrà fare un po’ più di chiarezza su questa tecnologia, direttamente correlata con web 2.0 e Virtualizzazione, il cui impatto sarà estremamente importante dal punto di vista della security.

3528 days ago