La trasformazione digitale ha causato un notevole aumento delle attenzioni dedicate alla Data Governance, la cui qualità è assolutamente determinante per il successo di una strategia di business. Le aziende devono dedicare importanti risorse all’integrazione e alla migrazione dei dati, in modo da definire le strategie, le procedure e i sistemi IT necessari per gestire i Big Data e trarre un effettivo vantaggio dalla loro fruizione.
Come vedremo nei paragrafi che seguiranno, la data migration è una disciplina complessa ed articolata ed il segreto per svolgerla al meglio risiede molto spesso nella capacità di rendere semplici i processi che la caratterizzano, in modo da evitare di ritrovarsi una congestione destinata a diventare nel tempo sempre più ingestibile.
Dal momento che i dati costituiscono ormai la linfa vitale per qualsiasi applicazione moderna, se affrontata con adeguata consapevolezza, la data migration consente di coinvolgere e controllare praticamente tutta l’infrastruttura digitale, contribuendo a rendere sempre più efficiente e competitiva l’intera organizzazione aziendale.
Cos’è la data migration
Nella sua condizione più generica, la data migration è un insieme di processi orientati al trasferimento dei dati tra storage, sistemi informatici e formati differenti. Si può parlare di migrazione dei dati ogni talvolta vi sia uno spostamento a livello di storage, applicazioni, server, database e altri sistemi in cui i dati vengono archiviati e analizzati.
Le circostanze in cui oggi avviene una data migration sono ormai moltissime, considerando l’esponenziale aumento della quantità di dati che l’era del digitale sta progressivamente implementando, in funzione di una varietà tecnologica e applicativa senza precedenti.
Gli ambiti che prevedono la data migration spaziano dal semplice trasferimento tra archivi (storage) a complesse trasformazioni, utili a rendere disponibili i dati per nuove applicazioni o far fronte a variazioni normative che costringono a modificare, anche drasticamente, le modalità di conservazione e trattamento degli stessi.
Per uno degli aspetti che costituiscono la data gravity, i dati tendono infatti a seguire le applicazioni, generando dei flussi migratori molto più spesso di quanto si possa pensare. A loro volta, i dati attraggono altri dati e si generano degli archivi di dimensioni crescenti, che vanno gestiti in modo da non congestionare gli archivi delle applicazioni o quei sistemi di sintesi come i database, i data lake e i data warehouse, che vengono utilizzati per le analisi dei previste dalla Business Intelligence e dalla Business Analytics.
Negli ultimi anni, una ulteriore complessità è stata costituita dal proliferare dei servizi in cloud, le cui applicazioni, basate sui microservizi, sono profondamente differenti rispetto alle tradizionali architetture monolitiche, anche nel modo con cui si relazionano con i dati. Tale diversificazione di scenario ha finito col generare vari tool per la data migration, che in estrema sintesi potremmo categorizzare come segue:
- – On-premise data migration tools: sono i software che per ovvie ragioni vantano la maggior tradizione in questo ambito, in quanto sono stati concepiti per migrare i dati attraverso due o più server, soprattutto in infrastrutture IT di dimensioni medio/grandi, dove operare manualmente non avrebbe alcun senso logico e pratico. Non prevedono dunque lo spostamento di dati in cloud;
- – Cloud-based data migration tools: come il nome stesso suggerisce, sono stati implementati per gestire lo spostamento di dati su vari servizi in cloud e migrare per la prima volta i dati in cloud da un server on-premise;
- – Open source data migration tools: oltre all’offerta commerciale, esistono alcuni tool open source che oltre ad essere free per quanto concerne la licenza di base, consentono di personalizzare il software per adattarlo alle proprie esigenze specifiche.
Perché può essere rischiosa
La migrazione di un sistema è un processo che storicamente implica, per la propria stessa natura, evidenti rischi e criticità, anche nella circostanza in cui tutto, sulla carta, viene pianificato nel migliore dei modi. Il passaggio dalla teoria alla pratica comporta infatti spesso imprevisti ma soprattutto non è mai semplice prevedere con certezza le condizioni di interoperabilità quando si migra da sistemi e applicazioni legacy verso ambienti decisamente più moderni, come quelli che offrono i servizi in cloud.
I problemi di interoperabilità possono essere causati da varie circostanze. In primo luogo, nel caso di applicazioni legacy, queste molto spesso sono state create in tempi non sospetti, senza prevedere la necessità di una data migration nelle varie situazioni in cui si rende necessaria oggi.
Vi è inoltre la questione dei formati, che ogni produttore tende a gestire in maniera proprietaria ed esclusiva, sia per non favorire la concorrenza, sia per ottimizzare le proprie tecnologie e renderle progressivamente sempre più efficienti. In uno scenario fortemente concorrenziale, in cui insiste una grande varietà tecnologica, i data format aperti si sono imposti come effettivo standard di riferimento in pochissimi ambiti, mentre risulta decisamente più frequente la necessità di dover convertire puntualmente i dati da un formato all’altro, qualora si presenti l’esigenza di una migrazione.
A livello strategico è possibile migrare in un’unica soluzione oppure pianificando vari step di attuazione. Ognuna di tale circostanza presenta pro e contro che vanno soprattutto proiettati sul caso in questione, per capire quale sia la strategia migliore da attuare. Non esiste, a priori, un metodo migliore di un altro. Esistono tante situazioni da analizzare e valutare nel dettaglio, soprattutto avvalendosi di specialisti esperti nella migrazione di dati e sistemi, dotati di quel know-how che soltanto la pratica su vari casi d’uso è in grado di formare.
La migrazione in un unico step, detta anche “big bang migration”, concentra i disservizi in un arco minore di tempo, ma aumenta l’esposizione al rischio e in ogni caso provoca un’interruzione di servizio dei sistemi attivi. Solitamente una data migration di questo genere viene pianificata nelle ore notturne o nelle condizioni di minor carico, quando un’interruzione di pochi minuti/ore causa un disagio il più possibile contenuto.
La migrazione in più fasi, detta anche “trickle migration” distribuisce il rischio e vede spesso due sistemi lavorare in parallelo, in cui le vecchie applicazioni vengono cessate soltanto quando la nuova configurazione è completa e pronta a garantire la totale autonomia nel suo operato. La data migration attuata per step è naturalmente meno soggetta al rischio imprevisti ma comporta genericamente un lavoro ben maggior nella pianificazione e nella gestione delle attività, con il conseguente maggior dispendio nelle risorse IT, soprattutto quando le procedure da seguire sono piuttosto complesse ed articolate. La logica della migrazione per step si applica anche ai processi in tempo reale, che prevedono un continuo flusso di dati, in quanto i dati stessi vengono mantenuti in una condizione di costante migrazione.
In tutti i casi, quando si parla di data migration è opportuno prendere atto del fatto che l’imprevisto è all’ordine del giorno e che l’interoperabilità perfetta tra vari sistemi di sintesi dei dati rappresenta una questione più teorica che pratica. Si rende opportuna una elevata attitudine al problem solving e una pianificazione che non può prescindere dalla perfetta conoscenza dell’ambiente da migrare.
Il fallimento di una strategia di data migration comporta infatti per l’azienda un duro colpo sia dal punto di vista dell’efficienza delle operazioni, sia sul conto economico. Una sottostima iniziale può rendere necessarie delle azioni di rimedio generalmente alquanto gravose, sia in termini di impiego di risorse IT addizionali, sia per fare fronte agli oggettivi disservizi che sistemi e processi mal funzionanti provocano nei confronti dell’utenza finale. Senza trascurare gli effetti di un possibile danno a livello reputazionale.
In sintesi, le principali criticità legate alla migrazione dei dati sarebbero pertanto le seguenti:
- Perdita dei dati
Anche se gli strumenti utilizzati per la data migration godo di sistemi per scongiurare in vari modi tale evenienza, nessun processo migratorio può dirsi del tutto al sicuro dalla possibilità di perdere in tutto o in parte i dati da trasferire tra i vari sistemi coinvolti. Ovviamente le strategie di data migration devono prevedere adeguati backup e procedure di ripristino in grado di ripristinare almeno la condizione originale.
- Incompatibilità dei dati
Non è assolutamente scontato che la migrazione dei dati tra differenti ambienti applicativi comporti automaticamente il funzionamento dei dati una volta completata l’operazione. La conversione dei dati in differenti formati, in funzione dell’interoperabilità, è un processo che evolve continuamente, ma soprattutto quando si opera attraverso ecosistemi chiusi, non è raro incontrare criticità.
- Sicurezza
Quando si parla di dati, non si può prescindere dall’argomento sicurezza. Una perdita di dati a vantaggio di un cybercriminale può causare seri danni a livello economico e di erogazione dei servizi per un’azienda che molto spesso è vittima di una propria vulnerabilità o di un’operazione poco accorta durante la fase di data migration.
Quando si trasferiscono i dati in rete è possibile che un criminale possa intercettarne il traffico, ad esempio grazie ad un attacco man-in-the-middle. Quando si trasferiscono fisicamente i dati è possibile rimanere vittime di sabotaggi o spionaggi industriali.
- Tempi di trasferimento lunghi
Anche se negli ultimi anni le infrastrutture di rete hanno acquisito una banda considerevole, anche il volume di traffico dei dati è diventato molto più consistente e i flussi migratori, pur agevolati da opportune ottimizzazioni, si fanno via via sempre più gravosi in termini di risorse. Oltre agli aspetti legati alla pura performance, quindi alla velocità di trasferimento, è importante valutare i tempi necessari per condurre un’operazione di data migration.
Non si tratta di un’operazione semplice, né a livello di macrostima manuale, né per un software in quanto le variabili da considerare sono moltissime e spaziano dal numero e dalla dimensione dei file alla qualità della rete. Basta infatti un semplice collo di bottiglia in un solo punto interessato dalla migrazione dei dati, per rendere anche molto lenta l’intera operazione. Per quanto riguarda i trasferimenti di dati dal locale al cloud, è indispensabile essere dotati di una connessione internet a banda larga, onde evitare attese incompatibili con le esigenze applicative.
- Costi superiori alle previsioni
La sommatoria delle criticità fin qui descritte, cui si aggiunge la serie degli eventi cosiddetti imprevisti e imprevedibili dà spesso e malvolentieri luogo ad un incremento dei costi rispetto alle previsioni iniziali. Ciò avviene soprattutto quando le previsioni di budget vanno di pari passo con una pianificazione della migrazione poco accorta, che finisce quasi sempre per essere la matrice stessa di tutti i problemi che puntualmente si verificano nelle fasi operative. Il fallimento di una migrazione comporta il rifacimento del processo, ma anche i problemi minori comunque incidono in termini di uso addizionale di risorse IT o di consumi a livello pay-per-use nel caso in cui, ad esempio, si utilizzi un servizio di data migration in cloud.
Le tipologie di migrazione
Nell’ambito della gestione dei dati aziendale, possono verificarsi varie ragioni per cui si renda necessario intraprendere un processo migratorio. Può verificarsi la sostituzione di un data server o di un sistema di storage, il passaggio ad un sistema operativo o ambienti di esecuzione diversi per quanto concerne le applicazioni. Senza considerare tutti i casi in cui è prevista la migrazione dei dati da un data center on-premise verso più servizi disponibili in vari cloud pubblici e privati.
Per farla breve, le variabili che rendono necessario un progetto di data migration sono tantissime ed è opportuno prevedere, per ognuna delle situazioni previste, un metodo sicuro, efficiente ed il più economico possibile per migrare i dati nella nuova posizione di archiviazione, senza precludere in alcun modo i successivi trasferimenti.
Tre le principali tipologie di migrazione ritroviamo:
Migrazione dello storage
Nella tradizione di quell’arte che è di fatto la gestione dei dati aziendale, la migrazione tra differenti punti di archiviazione costituisce con ogni probabilità lo scenario più tradizionale. Immaginiamo, anche a livello domestico, di dover spostare dei file e delle cartelle da una chiavetta usb al NAS in cui collezioniamo i nostri dati per renderli disponibili per tutti i dispositivi connessi alla rete.
Per completare tale operazione dovremo porci e risolvere una serie di problematiche, che spaziano dal disporre di spazio sufficiente, verificare l’integrità e la sicurezza dei dati che stiamo trasferendo e che la nuova posizione di archivio sia funzionale per svolgere i carichi di lavoro previsti.
In un contesto aziendale, oltre a tutte le esigenze applicative e di condivisione dei file, si rendono necessari dei processi di data migration finalizzati ad implementare i processi di back-up e disaster recovery richiesti dai piani di protezione dei dati e di continuità di business.
Inoltre, dal punto di vista tecnologico, si rende necessaria una migrazione dei dati anche qualora sussista l’ipotesi di modernizzare un sistema di archiviazione, duplicando i supporti fisici su tecnologie più recenti e performanti. I dati rientrano infatti in quel processo di gestione documentale che vede la digitalizzazione degli archivi cartacei e la loro conservazione sui data server aziendali, così come il passaggio di memorizzazione analogica come i nastri agli hard disk e agli SSD, senza dimenticare l’archiviazione virtuale in cloud.
La migrazione dei dati da un sistema ad uno più moderno si prospetta altresì come l’occasione di un trasloco, quando facendo gli scatoloni ci si rende ben presto conto che tante cose non vengono utilizzate da tempo e non avrebbe senso continuare a conservarle, occupando inutilmente spazio nella nuova casa. Lo stesso concetto, fatte le debite proporzioni, vale per i dati disponibili presso un archivio. La data migration costituisce pertanto una preziosissima occasione per pianificare ed eseguire la convalida, la clonazione, la pulizia e la ridondanza dei dati.
Migrazione dell’applicazione
Migrare un’applicazione è un’operazione piuttosto comune quando una o più linee di business passano da un software ad un altro, modernizzano i loro sistemi o più semplicemente variano un fornitore in cloud. Da queste ed altre circostanze consegue la necessità di trasferire anche gli archivi di dati necessari per il funzionamento delle applicazioni stesse.
La variazione dell’ambiente di esecuzione comporta spesso una profonda trasformazione dei dati, a causa di interazioni differenti rispetto a quelle presenti sulle applicazioni originali: molto spesso fattibile, ma altrettanto spesso tutt’altro che semplice, dal momento che lavorare su formati di dati differenti rappresenta da sempre una delle principali sfide nella gestione informatica dei dati.
Per facilitare la migrazione dei dati in contesti applicativi differenti, sono ovviamente disponibili degli strumenti capaci di automatizzare e soprattutto ottimizzare la trasformazione dei dati durante la conversione dei formati. Molto spesso i tool che assistono tali operazioni rendono semplici quelle operazioni che a monte sono decisamente complesse, grazie al know-how derivante dai tantissimi casi d’uso implementati. Ciò non esclude che anche se il grosso del lavoro viene svolto in maniera autonoma, si renda necessaria una certa dose di manualità per gestire le API o correggere alcuni problemi di implementazione che sarebbe davvero molto difficile automatizzare in toto.
Le principali tipologie di migrazione dell’applicazione prevedono:
- – Rehosting: altrimenti noto come lift-and-shift, il più delle volte consiste nello spostare un’applicazione da un server on-premise ad una macchina virtuale in cloud avvalendosi di un ambiente di esecuzione tale da non comportare modifiche all’applicazione, se non per via di aggiustamenti marginali.
- – Refactoring: prevede una modifica sostanziale dell’applicazione per eseguirla nell’ambiente di destinazione e si presenta sistematicamente quando si tratta di trasformare un’applicazione legacy monolitica in una basata sui microservizi, in modo da poterla containerizzare in cloud. Si tratta di una condizione intermedia che spesso richiede uno sforzo maggiore rispetto alla totale sostituzione con una nuova applicazione cloud native.
- – Nuova applicazione (cloud native): l’applicazione legacy viene del tutto dismessa in favore di un nuovo progetto cloud native, come una soluzione SaaS (Software as a Service), disponibile commercialmente o sviluppata ex novo. In questo caso i dati precedentemente utilizzati dalle app dismesse devono essere rifunzionalizzati per continuare ad essere disponibili con le nuove applicazioni.
Migrazione cloud
Oggi le aziende stanno ricorrendo a processi di analisi dei dati sempre più complessi, che richiedono tecnologie e risorse computazionali spesso disponibili soltanto in cloud. I Big Data hanno enfatizzato questa esigenza, per via di operazioni di Advanced Analytics che si basano su tecniche di apprendimento automatico (Machine Learning) e altre branche dell’Intelligenza Artificiale per supportare processi di analisi predittive e prescrittive capaci di combinare una quantità ed una varietà di dati incredibilmente elevata.
Questi carichi di lavoro sono indispensabili per estrarre valore informativo dai dati grezzi ai fini di supportare le decisioni aziendali e automatizzare molti processi e strumenti attivi, come gli impianti di una linea di produzione o i robot di un sistema di logistica. Ciò avviene grazie alla crescente capacità di conoscere ed interpretare il contesto che i sistemi di apprendimento automatico hanno ormai acquisito.
Garantire all’Intelligenza Artificiale dei dati di qualità si traduce nella possibilità di effettuare analisi più accurate, i cui risultati sono in grado di supportare in maniera migliore le sorti del business. Scegliere lo strumento di data migration in cloud adatto per i propri carichi di lavoro rappresenta pertanto un momento estremamente importante sia dal punto di vista tecnologico che per quanto concerne l’aspetto strategico.
Tendenzialmente, quando si parla di trasferire i dati da un data center locale verso il cloud si ricorre a due tipologie di soluzioni: la migrazione online, che consiste nel trasferire i dati attraverso la rete internet o una rete WAN dedicata, oppure una migrazione offline, in cui si rinuncia, per vari motivi, al trasferimento dei dati attraverso la rete, provvedendo ad una consegna diretta su dispositivi di storage fisici, che una volta giunti presso il data center di destinazione vengono copiati sui server e/o sui sistemi di storage fisici o virtuali previsti per l’archiviazione dei dati.
Fermo restando la possibilità di soluzioni ibride, la scelta tra questi due metodi è condizionata dal budget a disposizione, dalla quantità di dati da migrare, dai tempi a disposizione e dai requisiti di sicurezza richiesti a livello tecnologico, normativo e contrattuale.
Migrazione del database
La migrazione di un database consiste in un processo altamente specialistico, concepito ad hoc per questi carichi di lavoro. I servizi che svolgono queste operazioni, molti dei quali disponibili in cloud, offrono strumenti in grado di automatizzare in larga parte i processi di migrazione del database, ai fini di effettuarli in maniera rapida, efficiente e sicura dalla possibile perdita o corruzione di dati durante il trasferimento da un sistema all’altro. I software di data migration sono in grado di monitorare in tempo reale i dati durante il loro trasferimento, in modo da verificare che non vi siano problemi a livello di integrità.
La migrazione dei database è generalmente strutturata in funzione dei componenti del database stesso, e prevedono la conversione dello schema del DB di origine per renderlo compatibile con il DB di destinazione. Lo schema descrive sia l’architettura che la struttura del database, per cui è assolutamente necessario che il linguaggio utilizzato dal database di destinazione coincida con i dati che gli vengono trasferiti dalla posizione originale.
Una volta che i database dispongono di uno schema compatibile, è possibile migrare i dati con varie tecnologie, soprattutto in funzione delle esigenze specifiche. In alcune situazioni, sono coinvolti vari flussi tra molti database e sistemi di sintesi come i data warehouse, ma tali operazioni sono generalmente monitorate e gestite con una visibilità unificata attraverso appositi software, dotati di logiche operative self-service, con un elevato livello di automatizzazione.
Migrazione del data center
La migrazione di un data center completo può avvenire verso un altro data center on-premise o in cloud e coinvolge generalmente una notevole quantità di dati, capace di richiedere molto tempo, con l’opportuna valutazione dei possibili downtime cui si può andare incontro, oltre che un coordinamento scrupoloso per accertare la piena efficienza di tutti i processi coinvolti.
Trattandosi una data migration su larga scala, è pertanto importante considerare le tempistiche richieste e come implementarle in maniera effettiva, anche per non congestionare intere zone della rete durante le ore, giorni o settimane necessarie per completare il trasferimento di tutti i file.
Le fasi della data migration
Nel corso degli anni sono stati definiti vari framework per eseguire i processi di data migration. Per quanto riguarda gli approcci abbiamo già citato il Big Bang data migration, basato su una singola operazione e il Trickle data migration, che si articola su più fasi, congeniali soprattutto alle grandi organizzazioni e a quelle aziende che basano i loro processi sui Big Data.
Dal punto di vista operativo, entrambi gli approcci si basano strumentalmente sul processo ETL (Extract, Transform, Load) che prevede l’estrazione dei dati dalla sorgente originale, la trasformazione dei dati e la loro conversione in un formato compatibile con il sistema di destinazione, dove i dati vengono caricati alla fine di un ciclo che prevede una o più iterazioni.
A sua volta, l’approccio di Trickle data migration può ad esempio prevedere le seguenti fasi:
Valutazioni generali e pianificazione pre-migrazione
La conoscenza dei dati costituisce un pilastro fondamentale per qualsiasi processo di migrazione dei dati degno di questo nome e non può prescindere da un’accurata analisi del sistema di origine e del sistema di destinazione, ai fini di valutare l’interoperabilità tra i due ambienti e quantificare il lavoro necessario per l’eventuale conversione dei dati in un formato compatibile con il nuovo sistema.
Le valutazioni della fase di pre-migrazione sono oltretutto indispensabili per definire se procedere con un approccio Big Bang o Trickle, procedendo così ad articolare le successive fasi preparatorie, oltre a definire il budget, le tempistiche e le modalità operative per attuare la migrazione dei dati.
Ispezione dei dati
L’ispezione dei dati è una fase tipicamente tecnica in cui si parte dal conoscere i dettagli per cui è previsto l’utilizzo dei dati, in modo da pulirli, risolvere le anomalie, possibili conflitti e presenza di duplicati. Si tratta di un insieme di azioni proprie della data preparation che vengono ad esempio automatizzate dagli ETL con strumenti specifici.
Backup dei dati
Il nome dice tutto. Prima di procedere con la migrazione e il conseguente spostamento dei dati dalla loro posizione originale, è decisamente auspicabile operare un backup, provvidenziale per ripristinare lo stato originale e provare a ripetere il processo nel caso in cui la migrazione dovesse fallire. Anche se i sistemi di data migration riescono a scongiurare nella maggior parte dei casi un rischio di perdita dei dati, è in ogni caso rispettare le procedure richieste dal piano di continuità di business e dalle normative vigenti in materia di protezione di dei dati. Nessun sistemista responsabile inizierebbe un processo migratorio senza aver eseguito almeno una copia dei file e uno snapshot dei sistemi coinvolti.
Progettazione della data migration
La fase di design deve definire nel dettaglio come verrà eseguita la data migration, prevedendo pertanto tutti i test propedeutici, i parametri qualitativi richiesti e i ruoli che gli attori coinvolti dovranno esercitare durante prima, durante e dopo la migrazione. Ancora una volta l’obiettivo principale risiede nel garantire la compatibilità e la qualità dei dati, grazie all’azione dei data engineer chiamati a programmare e supervisionare tutte le fasi della migrazione.
In questa fase possono contribuire varie figure professionali in particolare per quanto concerne gli analisti utili a risolvere le esigenze specifiche ed indirizzare l’azione delle figure più tecniche, tenendo sempre presente la straordinaria varietà di situazioni che la data migration può prevedere in funzione di ogni contesto aziendale.
La fase di progettazione vera e propria consente di definire ogni dettaglio della data migration da eseguire e comporta la revisione della pianificazione iniziale, potendo computare con precisione tutti i tempi e i costi prevedibili, a cominciare dalle effettive figure professionali da coinvolgere nelle fasi esecutive.
Esecuzione e validazione della data migration
L’esecuzione della data migration coincide con la piena attuazione del processo ETL e la sua durata dipende dal volume di dati e dall’approccio scelto. In questo contesto, la Trickle data migration si dimostra più flessibile rispetto al Big Bang qualora dovesse fallire un processo, per via della possibilità di ripiegare rapidamente sul vecchio sistema, nel frattempo ancora attivo, e non dover ricominciare tutto da capo in condizione di totale downtime. La migrazione deve essere continuamente supportata dalla validazione delle singole fasi, in modo da assicurarsi che il tutto sia pronto per essere eseguito con successo nel sistema di destinazione.
Monitoraggio post-migrazione
Dopo aver concluso con successo la migrazione dei dati è necessario monitorare e testare gli ambienti di esecuzione per accertarsi che le applicazioni e i dati siano operativi nelle condizioni ottimali. La fase post-migratoria comprende molte attività di reportistica e analisi finalizzate sia alla valutazione della data migration e dei live test programmati che a fornire elementi utili per le successive attività.
Alcune best practice
Non esiste a priori un approccio migliore di un altro quando si tratta di migrare i dati, bisogna sempre tenere conto del contesto ed agire di conseguenza. A prescindere infatti dal metodo di migrazione scelto, che sia il Big Bang o il Trickle, è molto importante non affrettare le mosse, procedendo con estremo raziocinio, senza trascurare almeno i seguenti passaggi:
Conoscere i dati
Per gestire i dati occorre studiarli, analizzarli e comprenderne ogni aspetto relativo alla funzione in ambito aziendale. A cosa servono? Come vengono conservati e trattati? In che contesto va prevista una loro migrazione? La risposta a queste semplici domande consente di indirizzare una strategia nel modo corretto, ancora prima di entrare nei dettagli tecnologici.
Definire una strategia e mantenersi coerenti
Una volta svolta l’analisi e aver definito una strategia di data migration è opportuno procedere in tutti gli step previsti senza farsi prendere dalla frenesia di cambiare approccio e metodologia alla prima difficoltà. Occorre pazienza e occorre individuare le competenze necessarie per gestire la migrazione, con l’umiltà di saper imparare dagli errori commessi.
Eseguire sempre un backup
Dovrebbe essere la prima regola. Prima di procedere a qualsiasi variazione è fondamentale predisporre un backup da utilizzare nel caso in cui si verifichi qualche problema durante la fase di migrazione dei dati. Gli stessi sistemi utilizzati durante il backup andrebbero preventivamente testati in modo da assicurarsi la maggior resilienza possibile in caso di problemi, onde evitare possibili e disastrose perdite di dati.
Testare il più possibile, in tutte le fasi migratorie
Compatibilmente con budget e tempi disponibili per la data migration, è importante predisporre la maggior varietà di test cercando di eseguirne nel maggior numero possibile, in tutte le fasi del processo. I test offrono indicazioni utili per prevedere e risolvere più facilmente i problemi, senza rimanere inutilmente ancorati a simulazioni teoriche.
Avvalersi di consulenti davvero esperti
La complessità della data migration rende auspicabile, soprattutto per i reparti IT piuttosto digiuni o poco aggiornati in merito, avvalersi di consulenti esperti in materia di dati e soprattutto nella gestione di quei progetti in cui assumono un ruolo centrale. Un consulente esperto deve essere inoltre aggiornato sulle varie novità che il mercato offre e può aiutare moltissimo sin dalle fasi relative all’analisi della gestione dei dati aziendale.
Adottare un buon software di data migration
Sviluppare ex novo e internamente un software per la data migration costituirebbe un’operazione abbastanza ai confini della realtà, sia per la sua oggettiva complessità, sia perché il mercato offre moltissime soluzioni commerciali e open source dotate di interfacce moderne, con funzionalità drag and drop e una logica di utilizzo self-service, fortemente votata ad automatizzare almeno la maggior parte delle operazioni di routine.
La valutazione del software da utilizzare deve prendere in considerazione vari aspetti, che spaziano dal livello di supporto con le tecnologie attualmente disponibili alla velocità di esecuzione, senza trascurare gli aspetti relativi alla sicurezza e i vantaggi esclusivi di cui le applicazioni cloud-based dispongono, a cominciare dalla scalabilità delle risorse di storage e di rete.
Data migration, data conversion e data integration: le differenze
Nel farcito glossario delle operazioni che coinvolgono i dati nel contesto aziendale, è frequente ritrovare data migration e data conversion quasi a mo di sinonimi. Quando ciò accade, sta avvenendo qualcosa di non corretto. La conversione dei dati consiste infatti in un’attività molto più circoscritta rispetto alla migrazione dei dati in quanto riguarda esclusivamente la trasformazione dei dati da un formato compatibile con il sistema di destinazione previsto.
Detto così, il dubbio circa una possibile confusione non si porrebbe, ma a trarre in inganno può essere la fase operativa, in quanto anche la conversione dei dati, come la migrazione, prevede un processo ETL per estrarre i dati dalla posizione di origine, trasformarli nel nuovo formato ed infine caricarli sul sistema di destinazione, non prima di aver soddisfatto una serie di requisiti qualitativi.
Allo stesso modo, può essere utile distingue la data migration con la data integration, l’integrazione dei dati. In questo caso, ci si riferisce soprattutto alla fase iniziale delle operazioni sui dati, quando si tratta di aggregare e mettere in comunicazione varie fonti di dati, provenienti da applicazioni o origini esterne differenti.
Nel contesto dei Big Data Analytics, l’integrazione viene effettuata molto di frequente, a prescindere dalla necessità di migrare o meno di dati. Si pensi alle attività svolte da sistemi quali i data lake e i data warehouse, che integrano data set provenienti da origini diverse per renderli disponibili alle attività di Business Intelligence e Business Analytics.
Categoria: DATA GOVERNANCE

Cos’è la Data Governance e perché è importante per le aziende
I dati costituiscono la materia prima dell’azienda digitale. Implementarli e gestirli in maniera strategicamente efficiente… Leggi tutto

Data Fabric: cos’è e quali i vantaggi nel suo utilizzo
Le aziende si trovano ad interfacciarsi con ambienti sempre più diversificati, distribuiti e complessi. Rendere… Leggi tutto

Data Lineage: come assicurarsi qualità e integrità dei dati
Tracciare i dati attraverso il loro ciclo di vita è un tema di valenza strategica.… Leggi tutto