Backup: cos’è, a cosa serve, come e perché farlo

Pubblicato in: News il giorno: 20 Maggio 2019

Backup dei dati come passaggio obbligato di una buona gestione aziendale. La routine, indispensabile alla continuità operativa, oggi può essere fatta attraverso varie opzioni tecnologiche che oggi passano anche attraverso il cloud

Backup dei dati ormai sinonimo di continuità operativa. Fare un backup, infatti, significa fare un duplicato e quindi creare una copia di sicurezza di informazioni e file.

L’operazione, per quanto noiosa, è l’unico modo che permette agli utenti di tutelarsi da qualsiasi evenienza nefasta. In caso di malfunzionamenti o guasti, furti oppure attacchi da parte del cybercrime o, anche più banalmente, errori umani, avere una copia di backup è l’ancora di salvezza della governance.

A ciascuno il suo

Vero è che oggi la maggior parte delle grandi aziende ha soluzioni allo stato dell’arte. Il mondo enterprise può contare su Storage Area Network di fascia alta, alimentate dai miglior array di dischi e con sistemi di backup multilivello, integrate da piani di disaster recovery estremamente mirati e funzionali. Le grandi aziende hanno anche le risorse adeguate per comprare maggiore spazio quando ne hanno bisogno o di potenziare l’uso del cloud quando gli serve.

Diverso è il caso delle PMI che faticano a stare dietro alla continua crescita dello storage, non hanno le infrastrutture adeguate e nemmeno le risorse per istituire backup adeguati a garantire la business continuity aziendale. Come sottolineano gli analisti, sempre e in ogni caso, il backup è un fondamentale rispetto alla corretta gestione del dato. Definire linee guida e best practice dopo il GDPR è diventato prioritario per tutti. È necessario allargare le vision e istituire criteri di gestione adeguate.

L’articolo 32 del GDPR, infatti, specifica come “il titolare deve mettere in atto misure adeguate per garantire la sicurezza dei dati”. Assicurare integrità, riservatezza, resilienza e disponibilità dei sistemi che gestiscono i dati è parte integrante della conformità dei sistemi in merito all’obbligo di garantire la Business Continuity, attenuando il rischio di data breach.

Che cos’è un backup e a cosa serve

Un backup è una copia di file o database (fisici o virtuali) che viene ospitata in un sito secondario. È evidente che, per garantire la strategia, il secondo sito dovrebbe essere geograficamente lontano dal sito primario dove risiedono i dati originali in modo da avere garanzia del fatto che il secondo sito, per qualunque evenienza, non sarà compromesso. Il buon senso farebbe dire che questa considerazione è scontata ma, purtroppo, la letteratura informatica è piena di casi infelici in cui nella stessa sala macchine, convivendo sito primario e sito secondario, una volta allagata l’IT ha dovuto fare ammenda.

È un’attività fondamentale nei seguenti casi:

  • Anomalie e guasti dell’apparecchiatura
  • Eventi catastrofici come incendi, allagamenti, terremoti, guerre
  • Azioni malevoli come furti, virus e via dicendo
  • Errori da parte degli utenti distratti o inesperti

Grazie alla copia di file, applicazioni e sistemi, il backup permette di recuperare i dati perduti e di tornare alla condizione operativa precedente all’evento negativo; ovviamente, la funzionalità operativa dipende dalla frequenza con cui si effettua. Per lavori intensivi, infatti, la frequenza deve essere impostata in maniera più serrata rispetto ad attività diluite in delta temporali più lunghi.

Backup e disaster recovery: l’importanza di avere un piano

Si tratta dunque di un processo fondamentale in un piano di disaster recovery (DRP – Disaster Recovery Plan). Ripristinare dati, database, sistemi e applicazioni, infatti, è un requisito basilare nella gestione di qualsiasi tipo di business (pubblico o privato).

Parlando di sicurezza informatica, il backup è a tutti gli effetti l’altra faccia della medaglia. Per questo motivo è necessario eseguire quello di tutti i dati che si ritengono critici o vulnerabili. La routine, di per sé noiosa, si rivela cruciale nel momento in cui l’accesso ai dati è per vari motivi risulta inibito. In caso di software baggato, corruzione dei dati, guasto dell’hardware, hacking dannoso, errori degli utenti o altri eventi imprevisti, il backup è l’ancora di salvezza della governance. In linea generale, questo non vale solo per i grandi apparati informatici. Vale per i pc, gli smartphone, i tablet, i lettori audio e qualsiasi altro dispositivo equipaggiato di software.

Inventariate e classificare: capire cosa proteggere

Per capire come impostare una corretta procedura è necessario mappare e inventariare dispositivi e processi. La classificazione, infatti, aiuta a valutare i rischi e a capire come impostare le attività di backup nel modo più utile e funzionale ai file da presidiare. Le organizzazioni devono innanzitutto chiedersi:

  • quali e quanti dati bisogna memorizzare
  • dove risiedono i dati primari e dove risiederanno i dati duplicati
  • in che modo e con che tecnologie i dati devono essere ridondanti
  • in quanto tempo è possibile recuperare i dati backuppati

L’evoluzione dei sistemi

All’inizio del secondo millennio, prima che il disco diventasse il principale supporto delle attività di backup, la maggior parte delle organizzazioni utilizzava le librerie di unità a nastro magnetico per archiviare. Per inciso, sebbene oggi la tecnologia a nastro venga ancora utilizzata nelle aziende, l’uso che se ne fa è soprattutto per tutti quei dati archiviati che non devono essere ripristinati rapidamente. Oggi che la velocità è tutto, le aziende hanno optato per le tecnologie a disco e per i backup di rete.

Prima del backup di rete, su ogni server era installata un’applicazione di backup che copiava i dati su un’unità nastro collegata localmente o disco rigido, noto come direct-attached storage (DAS). L’approccio di avere software di backup aziendale e hardware di backup per ogni server era costoso e dispendioso in termini di tempo.

Il software di gestione dei backup continuava a funzionare su server separati e spostava i dati su disco invece che su nastro. Con l’aumentare delle dimensioni dei file, i fornitori di backup hanno introdotto dispositivi di protezione dei dati integrati per semplificare il processo duplicazione.

Un’appliance di dati integrata è essenzialmente un file server dotato di unità disco rigido (HDD) e di un software di backup. Questi dispositivi di archiviazione dei dati plug-and-play spesso includono funzionalità automatizzate per il controllo della capacità del disco, della memoria espandibile e delle librerie nastro preconfigurate.

Le aziende tipicamente eseguono il backup dei dati più importanti utilizzando appliance dedicate alla gestione dei dischi di backup. Il software di backup, integrato nelle appliance o in esecuzione su un server separato, gestisce il processo di copia dei dati sulle appliance del disco. Più in dettaglio, il software di backup gestisce la deduplicazione dei dati, lavorando di ottimizzazione per cercare di ridurre la quantità di dati di cui è necessario eseguire il backup, applicando al contempo quelle politiche che regolano la frequenza con cui viene eseguito il backup di dati specifici, il numero di copie eseguite e i casi in cui devono essere archiviati i backup.

La maggior parte delle appliance di backup basate su disco consente di spostare le copie dal supporto rotante al nastro magnetico per la conservazione a lungo termine. I sistemi a nastro magnetico sono ancora utilizzati a causa dell’aumento della densità del nastro e dell’aumento del Linear Tape File System (LTFS), un file system che consente l’accesso ai file memorizzati su nastro magnetico (analogamente a quelli su disco o unità flash rimovibili).

I primi sistemi di backup su disco, infatti, erano conosciuti come librerie nastro virtuali (VTL) perché includevano dischi che funzionavano in modo analogo alle unità nastro. In questo modo, i software di backup usati per scrivere dati su nastro gestivano un disco allo stesso modo di una libreria a nastro fisica.

Con il consolidamento delle risorse in cloud e l’evoluzione delle tecnologie flash, questa modalità è stata rimpiazzata da soluzioni di nuova generazione.

Le unità a stato solido (SSD) dal loro debutto, hanno rivoluzionato il concetto di storage, eliminando il movimento continuo delle piastre metalliche su cui girano i dischi HDD (Hard Disk Drive) per garantire prestazioni superiori. Un SSD, che lavora soprattutto a livello di memoria flash, è da 30 a 200 volte più veloce rispetto al classico HDD, su tutti i fronti: avvio del computer, accesso/lettura/scrittura dei dati, trasferimento dei file. Questa tecnologia ha però dei limiti che non sono solo i costi elevati e la durata più limitata (i dischi si usurano). Il problema delle unità SSD di grandi dimensioni, che spesso utilizzano la memoria Flash per archiviare e trasferire dati, è che non sono progettate per supportare la velocità. Un altro punto a sfavore sono i limiti di riscrittura, il che rende il loro ciclo di vita molto più breve rispetto a un disco meccanico. Gli SSD, però, hanno il grosso vantaggio di memorizzare ed eliminare volumi maggiori di dati. Le applicazioni per cui vengono più comunemente utilizzati, infatti, comprendono la produzione di supporti, l’elaborazione di big data nonché la memorizzazione dei dati raccolti in remoto.

Alcuni fornitori di storage includono l’SSD come strumento di caching o tiering per la gestione delle scritture con array basati su disco. I dati vengono inizialmente memorizzati nella memoria flash e quindi scritti sul disco. Dato che i produttori rilasciano SSD con una capacità maggiore rispetto alle unità disco, le unità flash potrebbero essere utili per il backup.

Come funziona un backup

I backup acquisiscono e sincronizzano uno snapshot point-in-time (PIT), ovvero l’esatta fotografia della condizione di un sistema informativo, utilizzata per riportare un sistema allo stato precedente l’evento malevolo. L’obiettivo? Garantire un recupero rapido e affidabile dei dati in caso di necessità; il processo di recupero è noto come ripristino dei file.

Questo è il motivo per cui i termini backup dei dati e protezione dei dati sono spesso usati come sinonimi. In realtà, la protezione dei dati comprende obiettivi più ampi, associati alla gestione della continuità operativa (Business Continuity – BC), della sicurezza dei dati e, più in generale, alla gestione del ciclo di vita delle informazioni e alla prevenzione di malware e virus informatici.

Di quali dati deve essere eseguito il backup e con quale frequenza?

Un processo di backup viene applicato a database critici o applicazioni a supporto delle line-of-business (LOB). Il processo è governato da politiche di backup predefinite che specificano la frequenza con cui viene eseguito il backup dei dati e il numero di copie duplicate (note come repliche) nonché gli SLA (Service Level Agreement) che stabiliscono la velocità di ripristino dei dati. Come già specificato, quanto più sono cruciali (mission critical) le informazioni, infatti, tanto più la frequenza dei backup potrà fare la differenza.

Le diverse tipologie

Le best practice suggeriscono di pianificare un backup completo dei dati almeno una volta alla settimana. A seconda della tipologia di lavoro, l’ideale è procedere con le operazioni di backup durante i fine settimana o, comunque, al di fuori dell’orario lavorativo. Per integrare i backup completi settimanali, le aziende in genere pianificano una serie di processi di backup fatti secondo un criterio completo, differenziale o incrementale.

Backup completo

Fare un backup completo significa attivare un processo che, ex novo, duplica completamente un intero set di dati. Sebbene sia considerato il metodo di backup più affidabile, l’esecuzione di un backup completo non solo richiede molto tempo ma impone di avere a disposizione un numero elevato di dischi (o di nastri). La maggior parte delle organizzazioni esegue periodicamente backup completi.

Backup incrementale

Fare un backup incrementale significa generare una replica soltanto di ciò che è stato modificato rispetto all’ultimo backup. Un backup incrementale, dunque, può essere generato in seguito a un backup completo (o anche in seguito a un backup incrementale). La replica si va ad aggiungere così al nuovo file di backup. Con questo sistema, in sintesi, offre un’alternativa ai backup completi eseguendo il backup solo dei dati che sono stati modificati dall’ultimo backup completo. Lo svantaggio è che un ripristino completo richiede più tempo se una copia di backup dei dati basata su incrementali viene utilizzata per il ripristino.

Backup differenziale

Un backup differenziale è simile a un backup incrementale ma, in questo caso, quello che viene salvato sono tutti i dati che sono stati modificati dall’ultimo backup completo. A differenza del backup incrementale, che salverà tutti i cambiamenti avvenuti dall’ultimo backup (sia esso completo o incrementale), il backup differenziale confronterà sempre i cambiamenti rispetto all’ultimo backup completo e salverà le differenze. Richiede senz’altro più spazio di un backup incrementale, ma consente di fare un ripristino completo che si verifica più rapidamente richiedendo solo l’ultimo backup completo e l’ultimo backup differenziale.

Ad esempio, se si crea un backup completo il lunedì, il backup di martedì, a quel punto, sarà simile a un backup incrementale. Il backup di mercoledì dovrebbe quindi eseguire il backup della replica differenziale che è cambiata rispetto al backup completo del lunedì. Lo svantaggio è che la crescita progressiva dei backup differenziali tende a influenzare negativamente la finestra di backup. Un backup differenziale, infatti, genera un file combinando una sua copia completa precedente con una o più copie incrementali create in un secondo momento. Il file assemblato non è una copia diretta di un singolo file corrente o precedentemente creato ma, piuttosto, è una sintesi del file originale che si porta dietro ogni successiva modifica a quel file.

Backup sintetico completo

Il backup completo sintetico è una variante del backup differenziale nella quale il server di backup produce una copia completa aggiuntiva, che si basa sul backup completo originale e sui dati ricavati da copie incrementali.

Backup completo + copie incrementali

In questo caso la strategia di backup è di tipo granulare. In pratica, il software crea la prima volta una cartella con la copia completa di tutti i file. In seguito, vengono create delle copie incrementali numerate, contenenti solo le modifiche rispetto all’ultima esecuzione. I backup incrementali riducono al minimo la finestra di backup, garantendo al contempo un accesso più veloce ai dati di ripristino. Un backup incrementale in modalità always on cattura l’intero set di dati e lo completa con backup incrementali da quel momento in avanti. Il backup solo dei blocchi modificati è noto anche come differenza delta. I backup completi dei set di dati vengono generalmente memorizzati sul server di backup, che automatizza il ripristino.

Backup incrementali inversi

I backup incrementali inversi, invece, sono modifiche effettuate tra due istanze di un mirror (ovvero di quella fotografia di un certo data set in un certo arco di tempo). Una volta eseguito un backup completo iniziale, ogni backup incrementale successivo applica eventuali modifiche al backup completo esistente. Ciò genera in sostanza una nuova copia di backup sintetico ogni volta che viene applicata una modifica incrementale, fornendo al contempo il ripristino dei backup completi precedenti.

Backup a caldo (o backup dinamico)

Il backup a caldo o il backup dinamico viene applicato ai dati che rimangono disponibili per gli utenti mentre l’aggiornamento è in corso. Questo metodo evita i tempi di inattività degli utenti e la perdita di produttività. Il rischio con il backup a caldo è che, se i dati vengono modificati mentre il backup è in corso, la copia di backup risultante potrebbe non corrispondere allo stato finale dei dati.

Backup locale e backup offline

I moderni sistemi di storage primari si sono evoluti, arrivando ad offrire funzionalità native sempre più performanti rispetto alla replica dei dati. Queste funzionalità includono innanzitutto schemi di protezione RAID (Redundant Array of Independent Disks – vale a dire un gruppo ridondato di dischi indipendenti) avanzati, tramite cui, raggruppando diversi dischi rigidi in un computer (o collegati ad esso), questi possono essere utilizzati come se fossero un unico volume di memorizzazione. La Ricerca e lo sviluppo in merito alle tecniche di memorizzazione si sono evolute in modo tale per cui anche il numero di istantanee generate oggi è diventato pressoché illimitato, mentre sono disponibili strumenti per la replica di istantanee per il backup secondario o anche per il backup off-site terziario. Nonostante questi progressi, il backup primario basato su storage tende ad essere più costoso e manca delle capacità di indicizzazione tipiche dei prodotti di backup tradizionali.

I backup locali

In questo caso vengono inserite copie di dati su HDD esterni o sistemi di nastri magnetici, generalmente alloggiati in un data center locale o situati nei pressi di un data center locale. I dati vengono trasmessi su una connessione di rete protetta ad elevata larghezza di banda o su una intranet aziendale. Un vantaggio del backup locale è la possibilità di eseguire il backup dei dati dietro un firewall di rete. Il backup locale è anche molto più veloce e offre un maggiore controllo su chi può accedere ai dati.

I backup offline

È simile al backup locale, sebbene sia più spesso associato al backup di un database, e comporta tempi di inattività poiché il processo di backup si verifica mentre il database viene disconnesso dalla sua rete.

Backup off-site

Il backup esternalizzato è un approccio secondo cui è possibile trasmettere le copie dei dati a un sito remotizzato, che può essere un data center secondario così come una soluzione di colocation.

Sempre più spesso questa opzione equivale a un servizio di storage su cloud basato su abbonamento, che fornisce una capacità scalabile a basso costo ed elimina la necessità del cliente di acquistare e mantenere l’hardware di backup.

Backup as a Service

Nonostante la sua crescente popolarità, scegliere il backup come servizio (Backup as a Service – BaaS) basato su abbonamento, che fornisce una capacità scalabile a basso costo ed elimina la necessità del cliente di acquistare e mantenere l’hardware di supporto al backup. Nel BaaS il cloud viene utilizzato come infrastruttura di protezione dei dati da errori umani, disservizi dei sistemi IT o attacchi esterni. Il cloud backup è una procedura di salvataggio altamente efficiente e veloce, che permette di copiare (e, nel caso, ripristinare facilmente) i dati relativi a singoli file, macchine virtuali o interi sistemi IT aziendali con la garanzia delle migliori performance.

Nonostante la sua crescente popolarità, il BaaS è impegnativo perché richiede agli utenti di crittografare i dati e attivare una serie di contromisure per salvaguardare l’integrità dei dati.

Backup in cloud: pubblico, privato o ibrido?

Il backup in cloud, più in dettaglio, può essere attivato scegliendo un modello di cloud pubblico, privato o ibrido.

Archiviazione su cloud pubblico

Scegliendo questa opzione, gli utenti spediscono i dati a un provider di servizi cloud, che addebita loro un canone mensile di abbonamento in base allo spazio di archiviazione consumato. Quello che bisogna sapere è che ci sono dei costi aggiuntivi per l’ingresso e l’uscita dei dati. Amazon Web Services (AWS), Google Cloud e Microsoft Azure sono i più grandi provider di cloud pubblici. I piccoli provider di servizi gestiti (MSP) ospitano anche backup sui propri cloud o gestiscono i backup dei clienti sui grandi cloud pubblici.

Archiviazione su cloud privato

Scegliendo l’opzione cloud privato, i dati vengono sottoposti a backup su diversi server all’interno del firewall di un’azienda, in genere tra un data center locale e un sito DR secondario. Per questo motivo, lo storage del cloud privato viene talvolta definito storage di cloud interno.

Archiviazione su cloud ibrido

Scegliendo di utilizzare il cloud ibrido, infine, è possibile utilizzare sia uno storage locale che uno storage off-site.

Le aziende utilizzano abitualmente uno storage in cloud pubblico in modo selettivo per l’archiviazione dei dati e la conservazione a lungo termine, scegliendo l’archiviazione privata per l’accesso locale e il backup in modo da avere la garanzia di avere un accesso più rapido ai dati più importanti.

La maggior parte dei fornitori di backup consente di eseguire il backup delle applicazioni locali su un cloud privato dedicato, trattando efficacemente il backup dei dati basato su cloud come un’estensione del data center fisico di un cliente.

Nel momento in cui questo processo consente alle applicazioni di eseguire il failover in caso di emergenza e di riattivarsi in un secondo momento, si parla di disaster recovery come servizio (DRaaS).

Backup cloud-to-cloud

Il backup C2C è un approccio alternativo che sta progressivamente affermandosi tra le organizzazioni. Questo approccio protegge i dati su piattaforme SaaS (Software as a Service) come, ad esempio, Salesforce o Microsoft Office 365. Il backup C2C funziona copiando i dati SaaS su un altro cloud, da dove può essere ripristinato in caso di perdita di dati.

Quello che bisogna considerare di questo approccio è che i dati spesso esistono solo nel cloud e che i fornitori SaaS spesso richiedono tariffe elevate per ripristinare i dati persi nel caso di un errore fatto dal cliente.

Storage di backup per pc e dispositivi mobili

Nell’era del BYOD il backup riguarda anche dipendenti e collaboratori. Gli utenti, in questo caso, possono prendere in considerazione sia il backup locale dall’hard disk interno di un computer a un disco rigido esterno collegato o un supporto ottico rimovibile, come CD, DVD e/o Blu-Ray o, ancora, delle microSD o qualsiasi altro supporto di memorizzazione come una pen drive. Il tutto considerando misure di sicurezza allineate alle policy aziendali. Avere una copia di progetti aziendali critici o di database importanti aiuta a recuperare i dati in caso di fatalità ma è anche un rischio.

Rispetto alla tematica dello shadow IT, chi gestisce l’enterprise mobility deve giocare di anticipo sugli utenti.

Oggi fare il backup dei dati da smartphone e tablet risolvendo tramite l’archiviazione cloud personale è diventato un task all’ordine del giorno. Non solo: dipendenti e collaboratori si appoggiano a fornitori quali Box, Carbonite, Dropbox, Google Drive, Microsoft OneDrive e altri. Questi servizi vengono comunemente utilizzati per fornire una certa capacità gratuitamente, offrendo ai consumatori la possibilità di acquistare spazio aggiuntivo in base alle esigenze. A differenza del cloud storage aziendale come servizio, queste offerte cloud basate sui consumatori generalmente non forniscono il livello di sicurezza richiesto dalle aziende. In questo caso l’IT deve lavorare a livello di cultura aziendale, procedendo a condividere i criteri di sicurezza e di gestione, regolamentando servizi all’altezza delle aspettative per non rischiare l’anarchia e indebolire la governance.

I fornitori di hardware e di software

A livello enterprise la lista dei fornitori più accreditati che vendono piattaforme hardware include player come Barracuda Networks, Cohesity, Dell EMC (Data Domain), Drobo, ExaGrid Systems, Hewlett Packard Enterprise (HPE), Hitachi Data Systems, IBM, NEC Corp., Oracle StorageTek (tape library), Quantum Corp, Rubrik, Spectra Logic, Unitrends e Veritas NetBackup.

I principali fornitori di software aziendali includono Acronis, Arcserve, Asigra, Commvault, Datto, Druva, EMC Data Protection Suite (Avamar, Data Protection Advisor, Mozy, NetWorker e SourceOne), EMC Replicator Replicator, Nakivo, Veeam Software e Veritas Technologies.

Il sistema operativo Microsoft Windows Server (OS) include intrinsecamente il Microsoft File System resiliente (ReFS) per rilevare e riparare automaticamente i dati danneggiati. Sebbene non sia tecnicamente un backup dei dati, ReFS di Microsoft è pensato per essere una misura preventiva per salvaguardare i dati del file system dalla corruzione.

VMware vSphere, invece, offre una suite di strumenti di backup per la protezione dei dati, la disponibilità elevata (HA) e la replica. L’API VMware vStorage per la protezione dei dati (VADP) consente a VMware o al software di backup di terze parti supportato di eseguire in modo sicuro backup completi e incrementali di macchine virtuali (VM). VADP implementa i backup tramite snapshot basati su hypervisor. In aggiunta al backup dei dati, la migrazione live di VMware vSphere consente di spostare le VM tra piattaforme diverse per minimizzare l’impatto di un evento DR. VMware Virtual Volumes (VVols) aiuta anche il backup di VM.

Tecniche e tecnologie di integrazione

La protezione continua dei dati (CDP – Continuous Data Protection) si riferisce a un livello di tecnologie progettate per migliorare la protezione dei dati. Un sistema di archiviazione basato su CDP esegue il backup di tutti i dati aziendali ogni volta che viene apportata una modifica. Gli strumenti di un CDP consentono di creare più copie di dati. Molti sistemi CDP contengono un motore integrato che replica i dati da un server di backup primario a uno secondario e/o da uno storage basato su nastro. Il backup da disco a disco su nastro (D2D2T) è un’architettura molto comune per i sistemi CDP.

Il near-continuous CDP acquisisce istantanee di backup a intervalli prestabiliti, che sono diversi dalle istantanee dei fornitori basate su array che vengono acquisite ogni volta che i nuovi dati vengono scritti nella memoria.

La riduzione dei dati riduce il footprint dello storage. Esistono due metodologie principali per procedere: la compressione dei dati e la deduplicazione dei dati. Questi metodi possono essere utilizzati singolarmente, ma i venditori spesso combinano i due approcci. Detto questo va ricordato come la riduzione della dimensione dei dati abbia comunque delle implicazioni rispetto alle finestre di backup e ai tempi di ripristino.

La clonazione del disco implica la copia dei contenuti del disco rigido di un computer, salvandolo come file immagine e trasferendolo su un supporto di memorizzazione. La clonazione del disco può essere utilizzata per il provisioning e il ripristino del sistema,così come per il riavvio o il ripristino di un sistema nella sua configurazione originale.

Erasure coding o codifica di cancellazione, detta anche FEC (Forward Error Correction) è una tecnica che si è evoluta come alternativa scalabile ai sistemi RAID tradizionali. La codifica della cancellazione il più delle volte è associata alla memorizzazione degli oggetti. Il RAID traccia le scritture di dati su più unità, utilizzando un’unità di parità per garantire ridondanza e resilienza. La tecnologia suddivide i dati in porzioni frammentate e li codifica con altri bit di dati ridondanti. Questi frammenti codificati sono memorizzati su diversi supporti di memorizzazione, nodi o posizioni geografiche. I frammenti associati vengono utilizzati per ricostruire i dati danneggiati, utilizzando una tecnica nota come sovracampionamento.

Il backup flat è uno schema di protezione dei dati in cui una copia diretta di un’istantanea viene spostata in una memoria a basso costo senza dover utilizzare un software di backup tradizionale. L’istantanea originale conserva il suo formato e la sua posizione nativi. Nel caso in cui l’originale non sia più disponibile o diventa inutilizzabile viene richiamata la replica di backup.

Il mirroring posiziona i file dei dati su uno o più server, garantendo che questi rimangano accessibili agli utenti. Nel mirroring sincrono i dati vengono scritti contemporaneamente su disco locale e remoto. Le scritture dalla memoria locale non vengono riconosciute fino a quando non viene inviata una conferma dalla memoria remota, garantendo così che i due siti abbiano una copia identica dei dati. Viceversa, le scritture locali asincrone sono considerate complete prima che la conferma venga inviata dal server remoto.

La replica consente agli utenti di selezionare il numero richiesto di repliche o copie dei dati necessari per sostenere o riprendere le operazioni aziendali. La replica dei dati va a copiare i dati da una posizione all’altra, fornendo una copia aggiornata per accelerare il disaster recovery.

Il recovery-in-place o ripristino istantaneo, consente agli utenti di eseguire temporaneamente un’applicazione di produzione direttamente da un’istanza VM di backup, mantenendo così la disponibilità dei dati mentre viene ripristinata la VM principale. Il montaggio di un’istanza fisica o VM direttamente su un server di backup o multimediale può accelerare il ripristino a livello di sistema in pochi minuti. Il ripristino da un’immagine montata comporta prestazioni degradate, poiché i server di backup non sono dimensionati per i carichi di lavoro di produzione.

Gli storage snapshot, ovvero le istantanee di archiviazione, acquisiscono un set di marcatori di riferimento su disco per un dato database, file o volume di archiviazione. Gli utenti fanno riferimento agli indicatori o ai puntatori per ripristinare i dati da un punto stabilito rispetto all’arco di tempo selezionato. Poiché deriva da un volume di origine sottostante, una singola istantanea di archiviazione è un’istanza, non un backup completo. Pertanto, le istantanee non proteggono i dati dai possibili guasti a livello di hardware.

Le istantanee sono generalmente raggruppate in tre categorie: blocco modificato, cloni e CDP. Le istantanee sono apparse per la prima volta come strumento di gestione all’interno di un array di archiviazione. L’avvento della virtualizzazione ha aggiunto istantanee basate sugli hypervisor. Le istantanee possono anche essere implementate dal software di backup o tramite una VM.

Gestione delle copie, sincronizzazione e condivisione dei file

Correlato al backup rientra anche tutta la gestione dei dati di copia (CDM – Copy Data Management). Il software, in questo caso si occupa di fornire una panoramica delle molteplici copie di dati che un’impresa potrebbe creare consentendo a gruppi di utenti di lavorare su una copia comune di dati. Sebbene tecnicamente non sia una tecnologia di backup, CDM consente alle aziende di gestire in modo efficiente le copie dei dati identificando copie superflue o sottoutilizzate, riducendo così la capacità di archiviazione di backup e le finestre di backup.

Gli strumenti di sincronizzazione e condivisione dei file proteggono i dati sui dispositivi mobili utilizzati dai dipendenti. Questi strumenti sostanzialmente copiano file utente modificati tra dispositivi mobili. Sebbene questo protegga i file di dati, non consente agli utenti di tornare a un determinato punto nel tempo in caso di guasto del dispositivo.

Come scegliere l’opzione giusta

Al momento di decidere quale tipo di backup utilizzare, è necessario fare alcune valutazioni. Le aziende utilizzano comunemente diverse strategie per fare il backup dei dati. Come ricordano gli esperti da più parti, una strategia di backup deve essere regolata da una serie di SLA che devono tener conto delle modalità di accesso e di disponibilità dei dati, ma anche del Recovery Point Objective (RPO) e del Recovery Time Objective (RTO). RPO e RTO, infatti, sono due parametri molto specifici strettamente associati con le attività di ripristino.

RTO e RPO

Il parametro RTO, infatti sta a indicare il delta temporale che permette di procedere senza una specifica applicazione il che, in sintesi, equivale a misurare il livello di tolleranza rispetto a un’interruzione di un servizio.

Il parametro RPO, invece, indica il tempo massimo che intercorre tra la produzione di un dato e la sua messa in sicurezza.

Creazione di una policy di backup

Per garantire che i dati aziendali critici vengano sottoposti a backup in modo coerente e regolare, la maggior parte delle aziende crea delle policy di backup per gestire efficientemente i tempi, i modi e le tipologie di protezione dei dati. La politica di backup crea anche una lista di controllo che l’IT può monitorare e seguire dal momento che il dipartimento è responsabile della protezione di tutti i dati critici dell’organizzazione.

Articolo preso da: zerounoweb.it