Il Cloud Computing dal punto di vista infrastrutturale

Parliamo di Cloud Computing da un punto di vista prettamente architetturale. Ad oggi si possono distinguere due tipologie di cloud, quella orientata ad un pubblico “esterno” raggiungibile tramite infrastruttura di rete estesa (internet) e quella dedicata ad uso interno che impiega la LAN/WAN aziendale e vede come utenti finali i dipendenti.
Nel primo caso parliamo di aziende che si propongono come Cloud Computing provider e/o che hanno prevalentemente siti remoti da gestire. Nel secondo caso ci riferiamo ad aziende che intendono erogare servizi ai dipartimenti al proprio interno.

Uno dei pilastri tecnologici che rendono possibile la realizzazione di soluzioni cloud è la virtualizzazione degli ambienti operativi. Essa consente di ottenere le funzionalità di ciascun server su HW virtuale (VM) rendendo possibile assegnare più o meno risorse al singolo servizio in modalità dinamica, senza alcuna interruzione del servizio. E’ anche possibile virtualizzare i singoli PC piuttosto che le applicazioni, o entrambi. Inoltre con la virtualizzazione si possono ottimizzare i sistemi in termini di occupazione di storage e con funzionalità di High Availability (HA) e Disaster Recovery (DR), conseguibili con sensibile riduzione dei costi.

Quanto descritto è configurabile in modo che le funzionalità di distribuzione del carico, HA e DR siano attivate in modo dinamico ed automatico. In particolar modo l’automazione dei processi di gestione consente di evitare errori manuali e, soprattutto, di intervenire in tempi ridotti ed in qualsiasi momento (h24×7×365). Ciò rende possibile concordare SLA ben definitii con l’utente finale ed una erogazione di servizi a consumo. Noi oggi siamo agli inizi nel proporre di questa tipologia di servizio, ma è ragionevole pensare ad una larga diffusione nel prossimo futuro, grazie agli indubbi vantaggi che le aziende ne possono trarre, in particolare le medie e piccole imprese, dove gli investimenti IT non sono elevati.
Possiamo aggiungere che l’integrazione dell’infrastruttura esistente con “aggiunte esterne” permette l’erogazione di nuovi servizi o l’ampliamento di servizi esistenti, senza sobbarcarsi l’onere di infrastrutture di proprietà.
Resto a vostra disposizione per informazioni e vi auguro una buona lettura.

Segnaliamo un interessante ’post’tecnico’ e in inglese – Exploring Cloud Computing Development?

3528 days ago

Gestire bene i pc in azienda? È sinonimo di (grandi) risparmi

Ridurre i costi, ottimizzare le risorse, generare più efficienza: il ritornello è tanto noto che rischia di essere stucchevole. Il problema (dei Cio, non di chi scrive) è che il tema, per varie ragioni, rimane di strettissima attualità. Il cloud computing è sicuramente il futuro prossimo ma per limitare consumi e costi dei data center (e di tutto il parco macchine) si può anche procedere con strumenti più consolidati.

Lo spunto all’ennesima riflessione in materia mi arriva da una recente indagine di Gartner secondo cui con un’attenta gestione dei pc in azienda il fabbisogno di energia può essere ridotto anche del 43%. Razionalizzare i data center, puntando tutto sul consolidamento dei server e sulla virtualizzazione, è sicuramente una via preferenziale ma non può essere l’unica. Serve un’azione certosina e mirata anche sul fronte dei desktop e dei portatili (Sempre più diffusi)

Gli analisti sono quindi nella condizione di suggerire l’impiego (ottimale) delle tecnologie di power management integrate nei pc per ottenere risultati significativi alla voce (riduzione) costi di gestione. L’entità di tali risultati è presto detta: secondo Gartner un’azienda con 2.500 computer potrebbe risparmiare fino a 43.300 dollari l’anno e altri 6.500 dollari si risparmierebbero spegnendo le macchine e staccando i loro collegamenti elettrici (operazione, quest’ultima, che potrebbe però causare problemi seri alla produttività, visto che gli aggiornamenti dei software avverrebbero durante le ore di lavoro).

Ridurre i consumi dei computer (unitamente a quelli dei server) può quindi garantire risparmi significativi nelle bollette e, perché no, dare un contributo alla tanto declamata volontà di essere più rispettosi dell’ambiente. Gartner, in proposito, ha pure confezionato un “modus operandi” per valutare l’impatto di diverse variabili sull’uso totale dei pc in azienda (che non supera si stima il 70% del tempo passato in ufficio), calcolando il consumo energetico di desktop, notebook e monitor durante e dopo le ore di lavoro.

Economizzando, con una più accorta gestione delle macchine (magari molte delle quali “vecchie” e non pensate in chiave “green”), il ricorso alle fonti di energia elettrica saltano fuori gli oltre 43mila dollari di spese in meno nei dodici mesi. E se il risparmio in questione fosse anche solo di 27.500 dollari (a tanto lo stima Gartner considerando i l’ipotesi che i consumi relativi all’uso dei notebook fuori azienda non siano a carico della stessa) sarebbe un buon punto di partenza.

3545 days ago

Green It: si parte dal software o dall’hardware?

La ricerca di cui ho estratto alcune indicazioni per questo post risale alla primavera scorsa, e quindi qualche mese prima che si scatenasse la tempesta finanziaria che ha portato all’attuale crisi economica globale. Quindi dati da prendere con la dovuta cautela ma anche dati che confermano e smentiscono alcune tendenze relative al rapporto fra infrastrutture It e eco sostenibilità.

L’indagine condotta da Echo Research (per conto di Ca) ha avuto per campione 250 Cio di aziende americane e inglesi di medio grandi dimensioni. Il primo dato che segnalo è il seguente: la maggior parte degli intervistati ha assicurato come le strategie It delle rispettive organizzazioni di appartenenza prevedono già l’implementazione di soluzioni ad alto rendimento energetico e di strumenti di automazione dei sistemi adottati per incentivare iniziative ecologiche. E fin qui nulla di nuovo.

Il secondo spunto di riflessione è questo: nonostante molte imprese sostengano di voler passare al green It per salvaguardare l’ambiente, la ricerca dice che il fattore eco sostenibilità è secondario in quanto i principali driver che inducono all’adozione di tecnologie verdi sono di natura economica e riguardanti le responsabilità nei confronti dell’azienda. Ed anche questo è qualcosa di già sentito.

Vengo allora a quella che ritengo un’importante chiave di lettura del fenomeno dei data center verdi. Stando all’indagine di cui sopra, i responsabili It si stanno accorgendo che la sostituzione delle risorse hardware esistenti con tecnologie più efficienti dal punto di vista energetico comporta spesso costi proibitivi, mentre l’implementazione di software dediti a migliorare l’efficienza di server e sistemi vari stressati da una crescente necessità di capacità elaborative può generare efficienza e risparmi significativi. Nei numeri questa tendenza si esprime con l’80% delle società americane e oltre il 70% di quelle inglesi che giudicano molto importante il ruolo delle soluzioni software in un’ottica di risparmio energetico.

In altre parole tool di virtualizzazione, di server e storage consolidation, di power management e più in generale di efficientamento energetico di reti e sistemi – fra cui si citano tanto i pc quanto i mainframe – sono preferibili alla mera sostituzione della vecchia macchina con una nuova. L’indagine in proposito rileva come la maggior parte dei budget stanziati per lp’It (il 90% negli Usa, l’80% in Uk) preveda in lista soluzioni software per abbattere i consumi energetici.
Il sasso nello stagno è lanciato, ai lettori (e ai produttori di hardware in particolare) la replica.

3580 days ago

I (blade) server cambiano pelle, nel segno della virtualizzazione

Gli analisti di Gartner hanno fama di coloro che sanno indicare i nuovi paradigmi dell’information technology, sia che si tratti di software sia che si parli di hardware. Riguardo le macchine, o per meglio dire le infrastrutture It, le predizioni relative ai server della società di ricerca americana anticipano una significativa trasformazione. Quale? Questa: i blade server sono una tecnologia ad interim che spianerà la strada a una nuova generazione di server, molto più flessibile, capace di gestire la memoria, i processori e quant’altro come risorse condivise configurabili in modo variabile, in funzione delle specifiche esigenze di business.

Il ritornello lo abbiamo sentito tante volte a proposito di virtualizzazione e il principio è, secondo Gartner, infatti lo stesso: i (blade) server di domani saranno più adattabili al mutare delle condizioni del mercato, dei cambi di strategia dell’azienda e anche dell’ambiente informativo in cui operano. In pratica più flessibili, come il principio del “dynamic It” impone.

Cio e responsabili It, in altri termini, potranno configurare macchine a dimensione variabile, caricandole o scaricandole di risorse in funzione delle specifiche esigenze nel segno della massima efficienza operativa (ed energetica). In futuro, si legge nelle indicazioni delle analisti, saranno rese disponibili tecnologie che consentiranno a molteplici sistemi blade di essere combinati all’interno della medesima architettura, operando quindi come un unico sistema di maggiori dimensioni. Più precisamente il server che verrà saprà gestire memoria, processori e schede I/O come componenti di un singolo “pool” e li potrà combinare in molteplici configurazioni per soddisfare i requisiti dell’utente.

Della dispersione delle capacità elaborative dei server si parla se non erro da almeno 10 anni. Ora si prospetta una nuova era in cui le macchine si caratterizzeranno per gli elevati tassi di utilizzo e la riduzione degli sprechi di risorse, a tutto vantaggio di una migliore resa delle applicazioni che vi girano sopra.

Sulla carta è una buona notizia per tutti. Oppure no?

3600 days ago

Cloud Computing – concetto astratto o molto pratico?

Iniziamo a parlare anche sul nostro blog del cloud computing.
La definizione in Wikipedia è: ’un insieme di tecnologie informatiche che permettono l’utilizzo di risorse (storage, CPU) distribuite. La caratteristica principale di tale approccio è di rendere disponibili all’utilizzatore tali risorse come se fossero implementate da sistemi … “standard”.

L’implementazione effettiva delle risorse non è definita in modo dettagliato; anzi l’idea è proprio che l’implementazione sia un insieme eterogeneo e distribuito – the cloud, in inglese nuvola – di risorse le cui caratteristiche non sono note all’utilizzatore.’
In parole più semplici, per noi Cloud Computing si esprime in 3 concetti molto concreti:

Software e servizi distribuiti sul Web, a cui si accede tramite un browser
non è più necessario che l’utente installi applicazioni server o ‘client’
disponibilità illimitata tramite qualunque dispositivo di connessione a Internet
Per sapere cosa ne pensano gli IT manager che sono gli utilizzatori delle tecnologie, insieme a NetApp abbiamo commissionato agli analisti di IDC una survey – a cui vi esortiamo a partecipare (si accede previa registrazione).

In attesa di ricevere i risultati ci piacerebbe sapere cosa ne pensano i nostri lettori.
Per voi è un concetto concreto o ancora astratto?

3607 days ago