Una guida pratica per pianificare il disaster recovery
Transcript
Una guida pratica per pianificare il disaster recovery
White paper PlateSpin® Una guida pratica per pianificare il disaster recovery in modo economico ed efficace Le organizzazioni di tutto il mondo reputano il disaster recovery sempre più importante per innumerevoli motivi. Tuttavia, con i due approcci tradizionali al disaster recovery, copia speculare dei workload e backup su supporti rimovibili, si vedono costrette a spendere l’80% del loro budget di disaster recovery su appena il 20% dei workload dei server (con copia speculare a costi proibitivi) oppure a optare per i backup su supporti rimovibili, meno cari ma dalle prestazioni inferiori. In questo white paper viene illustrato in che modo la tecnologia di virtualizzazione consente di risolvere il dilemma del rapporto tra costi e tempo posto dalle tradizionali soluzioni di recupero dati, permettendo alle organizzazioni di recuperare in modo rapido ed economico tutti i workload dei server. Sommario pagina Come misurare il valore delle soluzioni di disaster recovery. . . . . . . . . . . . . . . . . 1 Valutazione del rischio mediante test regolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 I rivoluzionari effetti della virtualizzazione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Come misurare il valore delle soluzioni di disaster recovery L’economia globale, la maggiore competitività che richiede processi Just-In-Time, i budget IT ridotti, l’esplosiva crescita di dati e i nuovi requisiti normativi hanno contribuito ad accrescere l’importanza del disaster recovery. Di conseguenza, le organizzazioni avvertono l’esigenza impellente di rivalutare e aggiornare i propri piani di disaster recovery. Guardando al panorama di disaster recovery attuale, si prospettano centinaia di soluzioni. I tre criteri da seguire per misurare il valore di queste soluzioni sono costi, prestazioni e rischi. Misurazione del TCO (costo totale di proprietà) Il costo è solitamente la preoccupazione principale per le organizzazioni che valutano le soluzioni di disaster recovery, soprattutto in un periodo particolarmente difficile per l’economia come quello attuale. Generalmente, le situazioni di emergenza sono piuttosto rare, pertanto il reparto IT si mostra scettico a destinare parte del budget a qualcosa che probabilmente non servirà mai. D’altro canto, ciascun server di produzione nel data center vanta un certo livello di valore aziendale e pertanto richiede protezione. Di conseguenza, le organizzazioni devono allocare il budget nel modo appropriato, bilanciando i costi di protezione e l’importanza dei componenti del data center per l’azienda. Le considerevoli differenze tra i due principali approcci alla protezione dei server complicano ulteriormente la questione. Il primo approccio implica la copia speculare dell’infrastruttura: eseguendo la copia speculare dell’intero ambiente server, è possibile raggiungere il più elevato grado di protezione. Il secondo approccio prevede invece il semplice backup dei dati all’interno del data center. www.microfocus.com 1 White paper Una guida pratica per pianificare il disaster recovery in modo economico ed efficace La copia speculare offre un’infrastruttura pienamente ridondante, che consente di raggiungere metriche di prestazioni relative a obiettivi RTO (tempo totale di recupero di un servizio a seguito di interruzioni) e obiettivi RPO (tolleranza per la perdita dei dati) ottimali. Il problema di questo approccio è il TCO (costo totale di proprietà). La duplicazione dei workload dei server raddoppia il costo iniziale di ciascun server e si va ad aggiungere ai costi dei componenti dell’infrastruttura, della larghezza di banda e delle attività di implementazione e manutenzione. Sebbene sia spesso possibile giustificare la spesa relativa alla duplicazione dei workload dei server di importanza critica, ad esempio le applicazioni rivolte alla clientela (ad esempio, server Web ed elaborazione degli ordini online), è più difficile trovare i fondi sufficienti per proteggere allo stesso modo i workload considerati meno importanti, come server e-mail, server Web interni o applicazioni per la generazione di rapporti in batch. In confronto, le soluzioni di backup si avvalgono dai nastri, poco impegnativi in termini di costi, ai dischi, sempre più economici. Nel complesso, queste soluzioni tendono a essere molto convenienti. Lo svantaggio di questo approccio basato sui dati è rappresentato dalle prestazioni di recupero. Le prestazioni RTO delle soluzioni di backup tendono a essere piuttosto scarse. Talvolta, prendere i dati di backup da un nastro o un disco e ricrearli in un workload utilizzabile può essere complesso e dispendioso in termini di tempo. Pensate a quanto tempo occorre per reinstallare e aggiornare il sistema operativo di un server, installare e aggiornare applicazioni e middleware, e riconfigurare tutte le connessioni di rete prima di riuscire finalmente a ripristinare i dati. Inoltre, che succede se non si tratta di uno ma di dozzine di server? Con questi due approcci, la vostra organizzazione dovrà scegliere un’infrastruttura costosa e ridondante o il backup dei dati economico ma lento oppure, come avviene solitamente, una combinazione di entrambi. Secondo le statistiche, le organizzazioni finiscono con l’utilizzare l’80% del budget disponibile per assicurare una protezione davvero efficace di appena il 20% dei loro server, gli unici ad avere l’assoluta necessità di prestazioni ininterrotte. In questo modo, il rimanente 80% dei workload dei server non godrà di alcuna protezione. Misurazione delle prestazioni Per valutare le prestazioni di recupero dei dati, occorre suddividere tale recupero in tre fasi distinte: backup (o replica), failover e failback. Nella maggior parte dei casi, le organizzazioni sono orientate a eseguire backup in modo estensivo. Tradizionalmente incentrate sulle tecnologie e i processi volti a mantenere i dati aggiornati, le soluzioni di backup spaziano dai semplici backup su nastro di uso quotidiano alla sofisticata replica basata su SAN (Storage Area Network). 2 Secondo le statistiche, le organizzazioni finiscono con l’utilizzare l’80% del budget disponibile per assicurare una protezione davvero efficace di appena il 20% dei loro server. Con numerose soluzioni di disaster recovery, i test possono richiedere talmente tanto impegno e interruzioni che alcune organizzazioni evitano direttamente di sottoporvisi. Eppure, una copia di backup non serve a nulla se non la si può utilizzare concretamente. La stessa importanza, se non maggiore, deve essere attribuita alle operazioni di failover e failback. Come discusso in precedenza, le soluzioni che offrono le migliori prestazioni RTO e RPO tendono ad adottare approcci complessi e costosi basati sulla ridondanza. Tuttavia, le organizzazioni con limiti di budget che hanno implementato soluzioni di backup a costi inferiori, si troveranno ad affrontare processi di failover soggetti a errori e onerosi in termini di tempo che non consentono di raggiungere l’obiettivo delle prestazioni. I processi utilizzati per convertire i dati grezzi in workload dei server utilizzabili rappresentano il vero problema. La questione centrale è, ancora una volta, il rapporto fra costi e prestazioni. Nella pianificazione del disaster recovery, le organizzazioni tralasciano spesso la fase finale del ciclo di vita del disaster recovery: il failback. Scegliendo diversi tipi di soluzioni, specialmente quelle di backup dei dati a costi ridotti, tengono conto di un solo aspetto del problema, senza predisporre alcun piano per ripristinare la "normalità" nel sito di recupero. Ovviamente, ciò genera problemi imprevisti o non necessari nel tentativo di tornare alle "normali attività aziendali". Considerate il failover come una ruota di scorta provvisoria per l’auto. Può essere utilizzata per diverso tempo, ma a un certo punto occorre "eseguirne il failback" e montare uno pneumatico di dimensioni normali. Valutazione del rischio mediante test regolari La maggior parte dei piani di recupero dei dati include, idealmente, un periodo o un evento di test annuale. Tuttavia, considerati i tempi rapidi del business e della tecnologia odierni, in un anno le organizzazioni possono subire un numero esorbitante di cambiamenti nei loro data center e nei loro processi aziendali. Questo inadeguato standard di test annuo è, ancora una volta, dovuto al fatto che la maggior parte delle soluzioni è incentrata sul front-end del ciclo di vita del disaster recovery. Il processo di test rispecchia spesso quello del recupero e comporta tutti i problemi e le complessità già menzionati con il failover. Con numerose soluzioni di disaster recovery, i test possono richiedere talmente tanto impegno e interruzioni che alcune organizzazioni evitano direttamente di sottoporvisi. Eppure, in caso di emergenza reale, è possibile fare pieno affidamento solo su un piano di disaster recovery testato a regola. Troppo spesso le organizzazioni non eseguono test adeguati sui loro piani, non identificando tempestivamente i problemi e vedendosi costrette a ricorrere a procedure di ripristino. Ma a quel punto è troppo tardi. www.microfocus.com 3 White paper Una guida pratica per pianificare il disaster recovery in modo economico ed efficace Per non parlare del fatto che, nella migliore delle ipotesi, le organizzazioni mettono mano all’infrastruttura di disaster recovery soltanto durante questi periodi di test annuali. Se ciò avvenisse con maggiore frequenza e facilità, la sicurezza e l’affidabilità dei piani aziendali di disaster recovery aumenterebbe in modo esponenziale. I rivoluzionari effetti della virtualizzazione La virtualizzazione consente alle organizzazioni di modificare l’approccio del reparto IT al disaster recovery. Tuttavia, che sia per l’introduzione piuttosto recente della tecnologia di virtualizzazione, per i suoi costi o per le normative e policy dei data center, le organizzazioni non hanno adottato la virtualizzazione su larga scala per il disaster recovery negli ambienti di produzione. I siti di disaster recovery offrono ambienti relativamente sicuri in cui distribuire la virtualizzazione (com’è stato per i laboratori di test nei quali le organizzazioni hanno installato le prime macchine virtuali o VM). Anche i risparmi economici realizzabili non sono da sottovalutare. L’IT può implementare la copia speculare dei server con un investimento complessivo minimo: un’infrastruttura virtuale. Potete impiegare un semplice ambiente server virtuale con un footprint ridotto per eseguire la copia speculare di un pool più ampio di server di produzione fisici o per proteggere tale pool. Le macchine virtuali assicurano la flessibilità e le prestazioni di un workload "avviabile sul posto". La virtualizzazione migliora le prestazioni RTO creando un backup della macchina virtuale per l’intero workload, il che evita di dover ripartire da zero come avviene con i tradizionali backup. Dal punto di vista dei test, la virtualizzazione permette di creare una copia snapshot del workload di un server che è possibile avviare sul posto e testare, non solo in modo facile e veloce, ma anche senza alcun impatto sulla produzione. Con le soluzioni di nuova generazione che sfruttano la virtualizzazione, potrete finalmente colmare il divario tra l’esecuzione di copia speculare e il backup su nastro per la protezione dei server fisici presenti nel data center. Tali soluzioni e tecnologie emergenti consentono di proteggere più server a un costo inferiore, alleviando le preoccupazioni di budget associate alle precedenti soluzioni di disaster recovery. 4 Con le soluzioni di nuova generazione che sfruttano la virtualizzazione, potrete finalmente colmare il divario tra l’esecuzione di copia speculare e il backup su nastro per la protezione dei server fisici presenti nel data center. Micro Focus Italia +39 02 366 349 00 Micro Focus Sede centrale Regno Unito +44 (0) 1635 565200 www.microfocus.com www.microfocus.com 162-IT10109-001 | Q | 02/17 | © 2017 Micro Focus e relative aziende affiliate. Tutti i diritti riservati. Micro Focus, il logo Micro Focus e PlateSpin sono marchi di fabbrica o marchi registrati di Micro Focus negli Stati Uniti. Tutti gli altri nomi di aziende e prodotti possono essere marchi di fabbrica delle rispettive aziende.