Effetto “modularizzazione”, i data center cambiano look

Sintetica elaborazione di come gli analisti di Gartner pensano poter essere l’evoluzione prossima ventura dei data center aziendali. Non è quindi una personale visione del fenomeno: gli eventuali disappunti li raccolgo volentieri per indirizzarli, con preghiera di risposta, a chi di dovere.

La vision della società di ricerca americana è grossomodo la seguente: nei prossimi anni si imporrà un nuovo approccio architetturale che sostituisce il tradizionale ricorso ai blade server. I data center saranno cioè realizzati con sempre maggiore frequenza in zone o aree funzionali separate, piuttosto che in strutture monolitiche. Per capirsi meglio i data center di domani assomiglieranno alle strutture modulari implementati nei grandi container per movimentazione navale e saranno dotati di sistemi di raffreddamento e alimentazione indipendenti (si potrebbe dire integrati), e quindi tarati in funzione delle specifiche esigenze. Il data center galleggiante di Google è tutt’altra cosa ma il principio di base è simile.

Questa ventata di innovazione nella gesione fisica dei data center apre secondo Gartner un nuovo capitolo sul tema “risparmio energetico” per un semplice motivo: una singola area (i cosiddetti “pod”) può essere estesa, aggiornata o riparata nel caso senza provocare costosi disservizi e fermi macchina di altre zone.

Questa innovazione ha un nome ed è “modularizzazione”. La ricetta d’uso suggerita dagli analisti è la seguente: un data center andrà gestito non più come un sistema omogeneo ma come una struttura modulare, migliorando l’ubicazione delle macchine in zone caratterizzate da diverse densità di calore e dedicando gli impianti di raffreddamento più costosi solo alle zone che ne hanno veramente necessità. Con il vantaggio di effettuare aggiornamenti con continuità e senza lamentare fastidiose inefficienze.

5063 days ago

La sicurezza del cloud? Una questione di cultura

Per gli scettici, il computing a nuvola non può essere affidabile per un semplice motivo: i (propri) dati, fuori dalla (propria) rete non si possono controllare. Ma come la mettiamo allora, insorgono gli adepti del cloud, con le migliaia e migliaia di aziende che spendono milioni di dollari per l’hosting dei dati presso fornitori esterni? Sono questi servizi più sicuri del cloud? Il dibattito è ovviamente aperto ma se fosse realmente pericoloso far girare applicazioni e dati su server e network che non sono quelli aziendali le varie Salesforce.com e Amazon Web Services (per non parlare di Google) non sarebbero quelle che sono. Evitare di comprare nuovi server e di assumere nuovi sistemisti ed esperti di database è un’attività che alle grandi aziende piace particolarmente, meno il fatto di mettere in altrui mani le informazioni più sensibili e vitali per il business.

I cattivi pensieri circa la sicurezza dei sistemi cloud reggono su interrogativi come questi: come vengono trattati i dati gestiti in hosting? Sono costantemente protetti da soluzioni di crittografia e simili? E i controlli degli accessi? Chi mette le mani sui data center di notte? Chiedersi se i propri dati residenti in un’infrastruttura cloud sono sicuri e quanto sono sicuri è più che lecito sia ben chiaro. Meno lecito è avere dei pregiudizi mal sorretti dai fatti. Non che sia dovuto intendere come verità assoluta ciò che affermano i provider dei servizi a nuvola – come Eran Feigenbaum, direttore della sicurezza per Google Apps, secondo cui “il cloud computing può essere sicuro anche più di quanto non lo sia un ambiente informativo tradizionale” – ma neppure essere convinti a priori del contrario.

La sicurezza dei dati, per contro, è una delle chiavi per il successo dei servizi cloud e su questo sono (e siamo) tutti d’accordo. Gli scettici dovrebbero però riflettere sul fatto che i maggiori rischi di perdita dei dati critici derivano o dal comportamento poco virtuoso degli addetti aziendali o dal fatto che l’azienda non sia attrezzata per attivare e gestire un’adeguata policy di sicurezza. Sono quindi più a rischio i database aziendali su cui si collegano i laptop dei dipendenti o i dati che viaggiano su una rete protetta e certificata di un fornitore di servizi cloud? E ancora più banalmente perché non ritenere più affidabile il fatto di operare su informazioni sensibili senza il rischio di lasciarne traccia (a rischio furto o copia) sul computer dell’ufficio?

Rimane il fatto che il sapere i propri dati residenti nel server ubicato nel data center aziendale rende più sicuri e tranquilli i Cio di quanto non lo siano nel caso questi risiedano all’esterno. E allora è forse vero quello che dice Rebecca Wettemann, un vice president della società Nucleus Research: “the security concern with cloud computing is a cultural issue”. Una questione di cultura.

5063 days ago

Cloud Computing: meglio non fare confusione…

In futuro, questo lo scenario dipinto dagli addetti ai lavori, i data center viaggeranno su binari di servizio totalmente automatizzati e si parlerà in modo diffuso e pervasivo di “cloud data center”, e cioè dell’estremo stadio di evoluzione della virtualizzazione, con i centri dati virtualizzati tra loro su scala globale. Nel frattempo il lavoro da fare per gli “evangelist” del cloud computing – passaggio obbligato per arrivare allo stadio di cui sopra – è ancora tanto e c’è chi, nella fattispecie gli analisti di Gartner, non mancano di sollevare lecite osservazioni.

Questo post fa volutamente riferimento a considerazioni “vecchie” di almeno sei mesi, quando ancora la bufera della crisi non aveva ancora cambiato drasticamente lo scenario del mercato tecnologico. La riflessione di Gartner con la recessione però poco ha a che fare ed è facilmente intuibile il perché. Se il termine “cloud computing” viene utilizzato con estrema facilità e definito in molti modi diversi – generando confusione sul mercato e dentro le aziende – non è infatti colpa della crisi. Capire le diverse prospettive del fenomeno e le sue innumerevoli applicazioni, evidenziare e precisarne le modalità d’uso per ottenere benefici è quindi il compito primo cui assolvere da chi opera nel mondo IT, vendor di tecnologia ovviamente in testa.

Gartner, di suo, definisce il computing “a nuvola” come un ambiente in cui determinati servizi informatici sono distribuiti in modo scalabile e massivo in modalità “as a service” a soggetti multipli interni o esterni all’azienda attraverso l’utilizzo di tecnologie Internet. Detto questo, cosa possa finire dentro il sacco del cloud computing può diventare oggetto di soggettive interpretazioni. Con tutte le conseguenze del caso. Meglio quindi dipanare i dubbi e partire dal presupposto che il cloud si manifesta concretamente in un utilizzo più focalizzato ed efficiente delle tecnologie di virtualizzazione. Per evitare che il mettere insieme il concetto di cloud quale abilitatore tecnologico e del significato intrinseco dei servizi di computing fruibili dalla “nuvola” generi confusione. Il cloud, come lo vede Gartner, è di fatto l’accesso via Web a servizi che si estendono dalle infrastrutture di sistema (storage in primis) alle applicazioni (per esempio il Crm) e ai processi di business. Basta questo assunto a cancellare gli eventuali dubbi in materia?

Cito testualmente, per evitare di fare a mia volta confusione, quanto dichiarato dagli analisti di Gartner: “cloud system infrastructure services are a subset of cloud computing, but not the entire picture… Virtualisation often is used to implement this underlying infrastructure to support delivery of the cloud computing services…Any provider of cloud computing services must have an environment that includes an infrastructure to support their delivery”.

5070 days ago

Oracle acquista Sun. E il Cloud?

Su 01.Net vi è un articolo interessante sull’acquisto di Sun da parte di Oracle, alla fine del quale si legge:”Ma c’è un ulteriore aspetto, che secondo molti analisti potrebbe rendere più che sensata questa operazione ed è la crescente importanza di paradigmi nuovi quali virtualizzazione e cloud computing.
Gli asset di Sun potrebbero – e non poco – aiutare Oracle ad acquisire competenze e ruoli nuovi in questi due segmenti, capitalizzando per di più, anche il frutto delle numerosissime acquisizioni portate avanti da Ellison negli anni scorsi.”

Il Cloud Computing sembra assumere un ruolo sempre più importante, se viene considerato anche in ambiti così ’strategici’ come questo e indubbiamente ci vorrà ancora del tempo prima che le aziende, soprattutto quelle medio piccole, provino ad adottarlo senza sufficienti ‘rassicurazioni’ (= altre aziende che lo adottano con successo). Grazie alle prime, pioniere e di successo, il Cloud viene sempre più percepito come soluzione alle difficoltà dei CEO e CIO di conciliare maggiori performance e budget sempre più ridotti, obiettivi opposti e in conflitto tra loro.

Ancora una volta la risposta è il Web, che evolve da meta statica usata solo per cercare o pubblicare informazioni ad ambiente di lavoro e sociale dinamico. Cito il caso di Google, i cui video e case study sono ampliamente esposti su uno speciale inserto (online ovviamente) di Zerounoweb.it, che comprende video lezioni, approfondimenti, interviste. Dalla lettura di una delle aziende clienti si evince il vantaggio principale del paradigma Cloud è il Total Cost of Ownership. Attraverso i classici parametri per la misurazione del valore economico di un investimento IT, l’azienda in questione ha riscontrato che la nuova logica del Cloud Computing avrebbe garantito un costo da 2 a 3 volte inferiore rispetto alle tradizionali soluzioni. In questo caso parliamo di posta elettronia e collaborazione che avrebbero previsto l’installazione di client e server, l’acquisizione di licenze, la manutenzione e l’upgrade.

Concludo ‘linkandomi’ ad un’altro articolo interessante – Cloud computing: pronti alla partenza? – secondo il quale Gartner stima per il Cloud Computing una crescita più rapida nel quinquennio 2008-2012 per rallentare nel triennio successivo e giungere al ‘plateau’ di maturità dopo il 2015. Siamo quindi agli inizi della fase di ‘boom’, ed è il momento dove i player interessati ad avere un ruolo preminente in quello che si configura con un mercato ricco di opportunità devono giocare le loro carte.

Voi quanto vi sentite pronti?

5090 days ago

Ridurre i consumi in azienda: i Pc a 0 watt

Non tutti sanno che i pc anche quando sono spenti consumano corrente e Fujitsu ha inaugurato una nuova linea di pc desktop a 0 watt. Presentati al Cebit, le linee ESPRIMO E7935 0-Watt ed ESPRIMO P7935 0-Watt, hanno suscitato notevoli attenzioni sia da parte del pubblico che della stampa.

Queste macchine, orientate specificatamente al business, permettono un notevole risparmio in termini di energia e sono in linea con le politiche green della azienda giapponese. Uno studio Gartner ha infatti calcolato che le imprese con 2.500 PC possono arrivare a risparmiare oltre 40.000 dollari l’anno grazie alla funzione PC Power Management Activation, e altri 6.500 dollari spegnendo o disattivando le macchine quando non vengono utilizzate.

In realtà, molte aziende tengono accesi i pc per una questione di IT management, nel timore di non poter eseguire gli aggiornamenti fuori dall’orario di lavoro. Con questa tecnologia, però, anche se il PC in modalità standby non utilizza energia elettrica, resta amministrabile durante un certo periodo di tempo predefinito, in modo da poter scaricare gli aggiornamenti necessari.

I bassi consumi registrati in modalità standby non sono la sola innovazione green del PC 0-Watt: fra le altre funzioni c’è anche un alimentatore ad alta efficienza, fino all’89%, una percentuale che lo rende conforme ai requisiti ENERGY STAR 5.0 (a partire dal 1 luglio 2009). Inoltre, i PC dispongono di schede madri prive di alogeni, una presa commutata per il monitor e l’uso dei nuovi chipset e processori Intel a risparmio energetico, materiali eco-compatibili utilizzati durante l’intero processo produttivo.

5095 days ago