Gestione dei datacenter in casa Google

In occasione del “Data Center Efficiency Summit”, Google ha svelato al mondo la struttura e l’hardware dei propri data center, nell’ottica di sensibilizzare le aziende all’ottimizzazione energetica dei propri CED. Recita l’invito della azienda di Mountain View:

“Saving resources such as electricity and water is not just good for the environment, it makes good business sense too. Being “green” reduces operating costs and can keep our industry competitive; it is this economic advantage that makes efficiency truly sustainable. Join us to learn more about how Google builds and designs data centers, and to share your own opinions and ideas.”

Tenendo conto che, qualche anno fa le stime davano un peso del 5% sull’energia elettrica prodotta globalmente per i datacenter di tutto il mondo, capire come Google gestisca la questione è molto interessante.

I server sono assemblati direttamente da Google e montati su rack 2U. L’hardware delle macchine è così composto:

motherboard Gigabyte (non disponibile sul mercato)
cpu Intel Prescott o Xeon Nocona
8 banchi di memoria DIMM
2 Hard Disk
L’housing avviene in grandi container trasportabili che possono contenere fino a 1160 server e non vengono utilizzati gruppi di continuità, ma ogni server è dotato di una batteria da 12 volt.

Con questa struttura Google ha ottenuto 1,12 punti di PUE (power usage effectiveness) avvicinandosi alla perfetta efficienza energetica. L’Environmental Protection Agency ha dichiarato che sarebbe auspicabile avere tutti i data center su questi livelli entro il 2011.

3528 days ago

Security, virtualizzazione e cloud computing secondo Idc

Dall’appuntamento annuale che Idc Italia tiene a Milano sono emersi alcuni dati significativi. In particolare il mercato legato alla sicurezza IT sembra godere di un buon trend anche in questo periodo negativo. Questo andamento è, in parte, da imputare al diffondersi di una cultura tecnologica nella pubblica amministrazione, che ha forti esigenze di security legate al tema della tutela e del rispetto della privacy, e nelle PMI, che oggi utilizzano strumenti prima accessibili solo alle grosse imprese. Un fattore determinante è il web, applicazioni mobile, e-commerce e transazioni elettroniche richiedono sempre più degli standard elevati di sicurezza.

Secondo Antonio Romano, direttore di Idc Italia, vi sono tre tendenze specifiche nella security. La prima riguarda la tutela del dato non strutturato: le informazioni in azienda passano attraverso canali esterni e non più solamente centralizzati, come email, instant messaging, web e vengono utilizzati strumenti mobile come Pda, smartphone, netbook. La seconda tendenza investe il settore delle telecomunicazioni attraverso il machine-to-machine, le transizioni a catena che avvengono tra dispositivi elettronici e che devono garantire massima sicurezza dalla sorgente alla destinazione. L’ultima forte richiesta di sicurezza è nella virtualizzazione, oggi accessibile anche alle piccole e medie imprese negli ambiti del disaster recovery e della business continuity. Bisogna poi tener conto che, all’interno dell’ambito virtualizzazione, vi è una crescente propensione a coprire anche i dispositivi mobili.

L’ultima nota riguarda il Cloud Computing, sempre secondo Antonio Romano, l’IT, nel futuro più immediato, dovrà fare un po’ più di chiarezza su questa tecnologia, direttamente correlata con web 2.0 e Virtualizzazione, il cui impatto sarà estremamente importante dal punto di vista della security.

3528 days ago

Il Cloud Computing dal punto di vista infrastrutturale

Parliamo di Cloud Computing da un punto di vista prettamente architetturale. Ad oggi si possono distinguere due tipologie di cloud, quella orientata ad un pubblico “esterno” raggiungibile tramite infrastruttura di rete estesa (internet) e quella dedicata ad uso interno che impiega la LAN/WAN aziendale e vede come utenti finali i dipendenti.
Nel primo caso parliamo di aziende che si propongono come Cloud Computing provider e/o che hanno prevalentemente siti remoti da gestire. Nel secondo caso ci riferiamo ad aziende che intendono erogare servizi ai dipartimenti al proprio interno.

Uno dei pilastri tecnologici che rendono possibile la realizzazione di soluzioni cloud è la virtualizzazione degli ambienti operativi. Essa consente di ottenere le funzionalità di ciascun server su HW virtuale (VM) rendendo possibile assegnare più o meno risorse al singolo servizio in modalità dinamica, senza alcuna interruzione del servizio. E’ anche possibile virtualizzare i singoli PC piuttosto che le applicazioni, o entrambi. Inoltre con la virtualizzazione si possono ottimizzare i sistemi in termini di occupazione di storage e con funzionalità di High Availability (HA) e Disaster Recovery (DR), conseguibili con sensibile riduzione dei costi.

Quanto descritto è configurabile in modo che le funzionalità di distribuzione del carico, HA e DR siano attivate in modo dinamico ed automatico. In particolar modo l’automazione dei processi di gestione consente di evitare errori manuali e, soprattutto, di intervenire in tempi ridotti ed in qualsiasi momento (h24×7×365). Ciò rende possibile concordare SLA ben definitii con l’utente finale ed una erogazione di servizi a consumo. Noi oggi siamo agli inizi nel proporre di questa tipologia di servizio, ma è ragionevole pensare ad una larga diffusione nel prossimo futuro, grazie agli indubbi vantaggi che le aziende ne possono trarre, in particolare le medie e piccole imprese, dove gli investimenti IT non sono elevati.
Possiamo aggiungere che l’integrazione dell’infrastruttura esistente con “aggiunte esterne” permette l’erogazione di nuovi servizi o l’ampliamento di servizi esistenti, senza sobbarcarsi l’onere di infrastrutture di proprietà.
Resto a vostra disposizione per informazioni e vi auguro una buona lettura.

Segnaliamo un interessante ’post’tecnico’ e in inglese – Exploring Cloud Computing Development?

3528 days ago

Gestire bene i pc in azienda? È sinonimo di (grandi) risparmi

Ridurre i costi, ottimizzare le risorse, generare più efficienza: il ritornello è tanto noto che rischia di essere stucchevole. Il problema (dei Cio, non di chi scrive) è che il tema, per varie ragioni, rimane di strettissima attualità. Il cloud computing è sicuramente il futuro prossimo ma per limitare consumi e costi dei data center (e di tutto il parco macchine) si può anche procedere con strumenti più consolidati.

Lo spunto all’ennesima riflessione in materia mi arriva da una recente indagine di Gartner secondo cui con un’attenta gestione dei pc in azienda il fabbisogno di energia può essere ridotto anche del 43%. Razionalizzare i data center, puntando tutto sul consolidamento dei server e sulla virtualizzazione, è sicuramente una via preferenziale ma non può essere l’unica. Serve un’azione certosina e mirata anche sul fronte dei desktop e dei portatili (Sempre più diffusi)

Gli analisti sono quindi nella condizione di suggerire l’impiego (ottimale) delle tecnologie di power management integrate nei pc per ottenere risultati significativi alla voce (riduzione) costi di gestione. L’entità di tali risultati è presto detta: secondo Gartner un’azienda con 2.500 computer potrebbe risparmiare fino a 43.300 dollari l’anno e altri 6.500 dollari si risparmierebbero spegnendo le macchine e staccando i loro collegamenti elettrici (operazione, quest’ultima, che potrebbe però causare problemi seri alla produttività, visto che gli aggiornamenti dei software avverrebbero durante le ore di lavoro).

Ridurre i consumi dei computer (unitamente a quelli dei server) può quindi garantire risparmi significativi nelle bollette e, perché no, dare un contributo alla tanto declamata volontà di essere più rispettosi dell’ambiente. Gartner, in proposito, ha pure confezionato un “modus operandi” per valutare l’impatto di diverse variabili sull’uso totale dei pc in azienda (che non supera si stima il 70% del tempo passato in ufficio), calcolando il consumo energetico di desktop, notebook e monitor durante e dopo le ore di lavoro.

Economizzando, con una più accorta gestione delle macchine (magari molte delle quali “vecchie” e non pensate in chiave “green”), il ricorso alle fonti di energia elettrica saltano fuori gli oltre 43mila dollari di spese in meno nei dodici mesi. E se il risparmio in questione fosse anche solo di 27.500 dollari (a tanto lo stima Gartner considerando i l’ipotesi che i consumi relativi all’uso dei notebook fuori azienda non siano a carico della stessa) sarebbe un buon punto di partenza.

3545 days ago

Green It: si parte dal software o dall’hardware?

La ricerca di cui ho estratto alcune indicazioni per questo post risale alla primavera scorsa, e quindi qualche mese prima che si scatenasse la tempesta finanziaria che ha portato all’attuale crisi economica globale. Quindi dati da prendere con la dovuta cautela ma anche dati che confermano e smentiscono alcune tendenze relative al rapporto fra infrastrutture It e eco sostenibilità.

L’indagine condotta da Echo Research (per conto di Ca) ha avuto per campione 250 Cio di aziende americane e inglesi di medio grandi dimensioni. Il primo dato che segnalo è il seguente: la maggior parte degli intervistati ha assicurato come le strategie It delle rispettive organizzazioni di appartenenza prevedono già l’implementazione di soluzioni ad alto rendimento energetico e di strumenti di automazione dei sistemi adottati per incentivare iniziative ecologiche. E fin qui nulla di nuovo.

Il secondo spunto di riflessione è questo: nonostante molte imprese sostengano di voler passare al green It per salvaguardare l’ambiente, la ricerca dice che il fattore eco sostenibilità è secondario in quanto i principali driver che inducono all’adozione di tecnologie verdi sono di natura economica e riguardanti le responsabilità nei confronti dell’azienda. Ed anche questo è qualcosa di già sentito.

Vengo allora a quella che ritengo un’importante chiave di lettura del fenomeno dei data center verdi. Stando all’indagine di cui sopra, i responsabili It si stanno accorgendo che la sostituzione delle risorse hardware esistenti con tecnologie più efficienti dal punto di vista energetico comporta spesso costi proibitivi, mentre l’implementazione di software dediti a migliorare l’efficienza di server e sistemi vari stressati da una crescente necessità di capacità elaborative può generare efficienza e risparmi significativi. Nei numeri questa tendenza si esprime con l’80% delle società americane e oltre il 70% di quelle inglesi che giudicano molto importante il ruolo delle soluzioni software in un’ottica di risparmio energetico.

In altre parole tool di virtualizzazione, di server e storage consolidation, di power management e più in generale di efficientamento energetico di reti e sistemi – fra cui si citano tanto i pc quanto i mainframe – sono preferibili alla mera sostituzione della vecchia macchina con una nuova. L’indagine in proposito rileva come la maggior parte dei budget stanziati per lp’It (il 90% negli Usa, l’80% in Uk) preveda in lista soluzioni software per abbattere i consumi energetici.
Il sasso nello stagno è lanciato, ai lettori (e ai produttori di hardware in particolare) la replica.

3580 days ago