Cloud Computing si, ma con moderazione …
Oggi si parla tanto di Cloud Computing come una delle tecnologie emergenti capace di risolvere tutti i problemi di affidabilità e disponibilità dei servizi di rete, con un rapporto costi benefici inarrivabile da qualunque altra soluzione tradizionale, siamo bombardati da informazioni che ci vendono questa tecnologia come l’unica e sola capace di traghettarci verso un futuro più semplice, sicuro ed economico, ma sarà proprio tutto vero?
Beh, in parte lo è certamente, ma secondo la mia personale esperienza occorre analizzare bene il significato del Cloud Computing, al di là di ciò che può essere la semplice definizione “da Wikipedia”.
Innanzitutto affidarsi al Cloud Computing significa affidare la propria infrastruttura di storage ed elaborazione dati ad un’azienda esterna identificabile in un data center.
Ma cos’è un data center?
Definizione tratta da Wikipedia: “Il centro elaborazione dati (CED) (in inglese Data Center) è l’unità organizzativa che coordina e mantiene le apparecchiature ed i servizi di gestione dei dati ovvero l’infrastruttura IT servizio di una o più aziende“.
Peculiarità di un data center sono:
- Un collegamento affidabile al 99,9%, veloce (almeno 100 Mbps simmetrici) e ridondante.
- Una grande autonomia energetica in caso di fluttuazioni o assenza di energia elettrica, il che comporta avere, oltre ad un adeguato gruppo di batterie, anche un generatore elettrico a combustibile sufficientemente potente da reggere prolungate assenze di energia dovute a problemi tecnici o ambientali.
- Qualcuno con conoscenze adeguate sempre disponibile H24 7 giorni su 7 all’interno della struttura per la risoluzione di guasti HW.
- Rimanere funzionale anche con pochi clienti e poter proporre una gamma ampia di soluzioni scalabili dalla capacità di calcolo allo storage.
- Un sistema di Disaster Recovery per i sistemi e i dati considerati importanti. .
Fin qui i punti di forza del Cloud Computing,
ma i difetti?
Si pensi, per esempio, alla sicurezza dei dati: non avendo più sotto controllo l’infrastruttura, dobbiamo fidarci di quanto riferitoci dal nostro provider, contando sulla sua buona fede e sulla buona fede dei propri tecnici; tecnici che avrebbero potenzialmente accesso ad un enorme mole di dati (anche sensibili ed eventualmente coperti da segreto industriale). Perfino l’ex. CEO di HP, Mark Hurd, nell’ormai lontano Ottobre 2009, interrogato sulle possibilità offerte dal cloud computing, rispose che HP non esporrebbe mai qualcosa che non sia sicuro al 100% all’esterno del perimetro dell’azienda (We (HP, ndr) wouldn’t put anything material in nature outside the firewall). Certo, qualcuno potrebbe dire che non esiste nulla di sicuro al 100% e che ogni affermazione andrebbe dimostrata.
Bene, allora proseguiamo…
Si pensi ora alla qualità del servizio: L’infrastruttura di un provider (Data Center) che fornisce servizi Cloud è, naturalmente, molto complessa; più un sistema è complesso, più diventa difficile comprendere e gestire i rischi sia nelle fasi di implementazione che di gestione e utilizzo. E’ chiaro quindi che, per non avere problemi tecnici che portino a disservizi, essendo impossibile garantire ai clienti che l’infrastruttura sia bug-free, un provider serio dovrebbe necessariamente prevedere un piano di disaster recovery. Tale piano è molto dispendioso ed occorre affrontare ingenti investimenti.
Già, ma che cos’è un piano di disaster recovery?
In pratica i dati considerati importanti vengono ridondati (replicati) in un “sito secondario” o “sito di Disaster Recovery” geograficamente distante dal sito primario. In caso di evento disastroso da rendere inutilizzabili i sistemi informativi del sito primario (terremoto, inondazione, attacco terroristico, ecc.), è così possibile avviare le attività sul sito secondario nel più breve tempo e con la minima perdita di dati possibile.
Ecco quindi che, uno dei pregi tanto sbandierati del “Cloud computing”, ovvero che si tratta di una soluzione poco costosa o addirittura gratuita, “fa a pugni” con la definizione di scalabilità (incrementare prestazioni e spazio di archiviazione) e sicurezza. La convinzione che il “cloud computing” significhi, di fatto, un basso costo se non addirittura “gratis”, deve essere smentita chiaramente. Tutti i datacenter che offrono servizi di cloud computing a costi irrisori, non sono certamente delle realtà che possono dare garanzie accettabili. Si tratta, come si usa dire, solo di uno “specchietto per le allodole”, giusto per attrarre il maggior numero di clienti possibile. Infatti per poter garantire scalabilità sia di spazio disco sia di capacità di calcolo oltre a sicurezza con archiviazione dati geograficamente distribuita, (le qualità principe del cloud computing) l’infrastruttura deve obbligatoriamente essere sempre sovradimensionata alle reali necessità del momento e addirittura deve essere replicata in luoghi geograficamente distanti tra loro. Questo dimensionamento costa molto.
Alcuni esempi di questo sono Microsoft ed Amazon che offrono i propri servizi, rispettivamente: Microsoft Azure e Amazon EC2. Questi servizi sono offerti a consumo in quanto i prezzi per un utilizzo H24 sono veramente elevati, ma sicuramente offrono una qualità di servizio così come ci si aspetta che debba essere. L’unico problema per chi volesse usufruire di questi servizi è che per rientrare dei costi, deve farne un utilizzo veramente intensivo e ciò è pensabile solo per strutture con migliaia di utenze tipiche delle grandi aziende. Un po’ come nell’industria dove si effettuano economie di scala con i grandi numeri nella produzione.
Ma per le piccole e micro imprese allora non è conveniente?
Beh, diciamo non completamente, occorre distinguere ciò che della propria infrastruttura è esternalizzabile e ciò che non lo è o per lo meno non è conveniente sotto un punto di vista economico e/o organizzativo. I servizi necessari ad un’azienda sono molteplici e molteplici sono quindi i canoni, diversi per servizio ed utente. I prezzi dei server in cloud si formano attraverso la selezione del numero di CPU e della loro frequenza o capacità di calcolo, la capacità di archiviazione in Gigabyte, la frequenza dei backup, l’utilizzo di database server (esempio Micosoft SQL) e l’utilizzo di strumenti di difesa come firewall oltre, naturalmente, alla disponibilità di assistenza telefonica o online.
L’adozione del “cloud computing” porta ad intravedere, per l’azienda, la riduzione della necessità di disporre di personale IT interno. Il minor peso dell’infrastruttura hardware e software dedicata alle applicazioni, “spostate” nel “cloud”, sembrerebbe confermare in parte ciò. Tuttavia occorre sottolineare l’importanza strategica che vengono ad assumere i sistemi di comunicazione, il loro monitoraggio e la gestione della sicurezza e della garanzia della loro persistenza. Inoltre anche le soluzioni in “cloud”, necessarie per i servizi aziendali, richiedono un’attenta valutazione in termini di qualità, affidabilità ed integrabilità, spesso da effettuarsi tra servizi offerti da gestori differenti. Molte aziende hanno approfittato di questo scenario per spostare all’esterno la maggior parte dei servizi correlati, rilevando poi nel seguito che in ogni caso è strategico mantenere all’interno, o in una rete di professionisti vicina all’azienda ed alle sue esigenze, la capacità di analisi, valutazione, selezione e gestione dei servizi e dei gestori del “cloud”.
Altro esempio, poniamo il caso di una piccola azienda di 30 -35 dipendenti che abbia al proprio interno un archivio documentale digitalizzato di 150 – 200 Gigabyte di documenti, non è così infrequente, in fondo si tratta di avere tutto l’archivio cartaceo degli ultimi 20-25 anni acquisito otticamente. Si pensi ora all’operatività quotidiana relativa alla produzione di nuovi documenti e consultazione di documenti archiviati, anche in questo caso non è così infrequente trovare piccole aziende che generano traffico e dati per alcuni Gigabyte al giorno. Bene in questo caso, solo avere una macchina virtuale in cloud con lo spazio disco sufficiente a contenere l’archivio storico costerebbe in un anno di più che acquistare una licenza server Windows e relativa macchina fisica su cui farlo girare! Figuratevi poi se mettiamo in conto anche il costo del traffico generato e capacità di calcolo decenti…
Quindi che fare?
Per esperienza il servizio in cloud che attualmente è sicuramente conveniente è la posta elettronica ospitata. Esternalizzare la posta elettronica significa portare all’esterno della propria azienda un numero veramente elevato di problemi e a conti fatti il bilancio è certamente positivo per l’azienda qualunque sia la sua dimensione. Gestire la posta elettronica in casa oggi è molto più oneroso che pochi anni fa, occorre mettere a disposizione una piattaforma veloce, scalabile, sicura e trasversale ai dispositivi che la utilizzano. Oggi alla posta elettronica si accede con il pc dell’ufficio, il portatile, lo smartphone e il tablet in mobilità, senza contare che i sistemi operativi non sono più 2 soltanto (Windows e Linux o Unix), ma almeno 5 con diverse varianti: Linux, Windows (per pc) e Windows Phone, Mac (per pc) e iOS per iPhone, Android e Blacberry e tutto deve essere perfettamente sincronizzato su tutti i dispositivi contemporaneamente. Gestire in “casa” la posta elettronica oggi significa avere sempre a disposizione una persona con elevate capacità di analisi e competenze tecniche per far fronte a tutte le “varie ed eventuali” che ogni giorno puntuali come orologi svizzeri si presentano.
Ma oltre alla posta elettronica ospitata, quali altri servizi in cloud sono convenienti?
La domanda non è per nulla banale, proverò a rispondervi con una riflessione che altro non è che un’altra domanda. Ammesso che tutte le condizioni per portare qualsiasi attività in cloud siano rispettate, comprese quelle economiche, voi portereste tutto fuori dalla vostra azienda senza avere una copia perfettamente sincronizzata di ogni singolo bit in ufficio? Già, bella domanda questa, vero?
E’ appunto in questo spazio lasciato da questa domanda “chiave” che un professionista come me, formatosi passando dalla piccola alla media e grande azienda nell’ultimo trentennio, può tornare utile, appunto per valutare cosa utilizzare del buono che offre il cloud e cosa di buono può offrire una soluzione “ibrida” dove parte del cloud computing si può tranquillamente tenere in “casa” mantenendo al contempo elevati standard di affidabilità e disponibilità dei servizi con un mix che possa contenere i costi e massimizzare i benefici.
Questo “cloud computing casalingo” io lo chiamo Office Datacenter, ossia un vero centro elaborazione dati in alta affidabilità e alta disponibilità ottimizzato e ritagliato su misura per il proprio ufficio.
Qualcuno dirà che non sto inventando o dicendo nulla di nuovo, in fin dei conti la Dell con il PowerEdge VRTX Server ha realizzato proprio un mini data center integrato tutto in un unico case trasportabile dalle caratteristiche di un vero data center. Già, ma anche questo ha capacità di calcolo e archiviazione dati che vanno ben oltre le necessità di una piccola o micro impresa, senza parlare dei costi, si parla sempre di “banalità” nell’ordine dei 50.000 – 100.000 Dollari, se si considerano anche i costi di analisi e progetto.
Io mi rivolgo a tutte quelle imprese che non necessitano altro che di pochissime macchine che svolgono funzionalità di file server, database server, web server o controller di dominio, diciamo al di sotto delle 10 unità server, tanto per avere un valore di riferimento. Sempre per avere un altro valore di riferimento, tra i 5.000 Euro e i 15.000 Euro di investimento iniziale compresi i costi di analisi e progetto.
Per approfondimenti vi invito a prendere visione della sezione PROGETTO OFFICE DATACENTER, dove potrete trovare la mia personale soluzione alternativa al “tutto in cloud”, vedrete che non ve ne pentirete …