I rischi di fallimento nei progetti di virtualizzazione desktop e le possibili soluzioni

Pubblicato in: Approfondimenti il giorno: 27 marzo 2018

Tramite un desktop virtuale è possibile simulare la presenza di più desktop indipendenti, di modo da dividere le applicazioni tra di essi a discrezione dell’utente, ottenendo:

  • uno sfruttamento maggiore della potenza di calcolo delle macchine
  • un’intercambiabilità straordinaria
  • un accesso da remoto (da qualunque luogo e in qualsiasi momento) e da qualsiasi dispositivo (tablet, netbook, smartphone)
  • una maggiore durata (per minore obsolescenza) delle singole postazioni di lavoro
  • uno snellimento della gestione quotidiana (grazie alla possibilità di caricare su un’unica Macchina Virtuale molteplici utenti divisi per “gruppi logici”)
  • il salvataggio di tutti i dati presenti nel backup aziendale.

Vantaggi notevoli quelli derivanti dalla virtualizzazione desktop… ma un progetto di virtualizzazione (VDI – Virtual Desktop infrastructure) è immune dal fallimento? Niente affatto!

I motivi dell’insuccesso possono essere diversi: costi nascosti, una serie di requisiti sottovalutati, utenti che non gradiscono la tipologia di servizio, ragioni sbagliate a monte della scelta di implementazione della tecnologia.

In definitiva però tutte queste ragioni possono ricondursi fondamentalmente a due categorie, vale a dire problemi di disinformazione e problemi di prestazioni: sono molte, infatti, le organizzazioni che non hanno le competenze necessarie a intraprendere una strategia di virtualizzazione procedendo con il giusto approccio.

Per questo riteniamo importante sottolineare alcuni aspetti “conoscitivi” da valutare sempre in un progetto di virtualizzazione dei desktop:

  • avere ben chiara la differenza che intercorre travirtualizzazione dei desktop e virtualizzazione dei server: questi ultimi infatti sono piuttosto prevedibili, in quanto fanno le stesse cose alla stessa ora e ogni giorno; i desktop, invece, sono poco prevedibili, essendo guidati dagli utenti che possono decidere, quando e come vogliono e senza alcun indizio di previsione, di guardare un video, piuttosto che di accedere a un’applicazione di grafica, o richiedere il supporto di una periferica remota, e così via
  • non trascurare i requisiti hardware: quando virtualizzano, molte organizzazioni tendono a sottovalutare i requisiti dell’hardware e le caratteristiche delle infrastrutture di rete coinvolte, mentre solo passando dalla teoria alla pratica si può constatare se il numero di utenti che un determinato prodotto asserisce di poter di supportare per ogni core sia poi realmente soddisfatto
  • non sottostimare mai la banda: poiché con i desktop virtuali tutta l’attività dei singoli utenti passa attraverso la rete, se la larghezza di banda è insufficiente si genereranno dei ritardi nei servizi; questo implica che in fase di test si sia molto scrupolosi e attenti, e non ci si limiti a sperimentare un progetto di VDI con un numero ridotto di utenti per poi estenderlo ad un numero superiore, perché è molto probabile che le cose non funzionino (e questo vale sia per la banda che per lo spazio allocato) e che nemmeno il rimedio successivo, cioè ulteriori investimenti e potenziamenti della rete, portino a benefici tali da giustificare l’innalzamento dei costi, che invece quasi sicuramente determineranno l’abbandono del progetto
  • sfatare i miti della virtualizzazione: a prescindere al fatto che a molti utenti finali piace molto avere dei desktop personali e personalizzati, per cui potrebbero arrivare a osteggiare la migrazione, c’è da tenere ben presente che è vero che con la VDI diminuiscono i costi delle postazioni di lavoro ma anche che crescono quelli di storage, per cui molte realtà imprenditoriali potrebbero implementare progetti di virtualizzazione desktop pensando di risparmiare denaro che però alla lunga potrebbe essere molto meno di quanto auspicato: l’unico modo per evitare questa impasse è avere ben chiaro il motivo per cui si sta implementando VDI, al fine di impostare obiettivi effettivamente raggiungibili.

Per quanto concerne invece la seconda tipologia di motivazioni che stanno alla base del fallimento di un iter che porti alla dotazione di desktop virtuali, cioè i problemi di prestazioni, servono strumenti che aiutino i responsabili a supportare gli utenti finali, soluzioni per il monitoraggio delle prestazioni, dettagliate statistiche e un sistema di segnalazione che dia visibilità sulla disponibilità dei servizi e sui tempi di risposta.

A tal proposito, ci sentiamo di sottolineare:

  • l’importanza della ridondanza: poiché una macchina può rompersi in qualsiasi momento è necessario disporre di una soluzione di backup per ogni servizio virtuale che si è predisposto
  • il valore del monitoraggio predittivo, utilissimo nel segnalare il verificarsi di eventuali errori: i sistemi monitorano i protocolli dei desktop virtuali, le porte utilizzate, le subnet, le VLAN al fine di garantire il traffico dei desktop virtuali
  • la necessità di storage ad alta efficienza: più veloce è l’hardware minori saranno gli eventuali disservizi per gli utilizzatori finali; tuttavia, per la maggior parte delle organizzazioni si tratta di un investimento troppo costoso
  • la previsione dell’errore umano: basta che qualcuno imposti in modo sbagliato l’installazione del software e ogni desktop virtuale ne può risentire.

Eppure quest’ultimo pericolo può essere contenuto non solo con una visione aziendale olistica (tecnici, amministratori e dirigenti dovrebbero predisporre un comitato di gestione capace di controllare anche questi aspetti), ma anche affidandosi a deli esperti del settore, come quelli che lavorano presso la Copying, specializzata in Servizi di Gestione Documentale dal 1977, e con una divisione dedicata specificamente alla realizzazione e gestione di infrastrutture virtuali.