Dati, dati, sempre più dati ovunque, su server on-premise, dispositivi vari, strumenti cloud. Questo modus operandi comporta il rischio della creazione di silos di dati isolati, impedendo alle aziende di avere una visione globale ed univoca di quali dati hanno, dove li hanno e quale siano le sorgenti, rendendo vane tutte le best practice di data governance adottate o adottabili, e creando inefficienze anche in termini di operatività e produttività aziendale.

immagine promozionale del white paper sulle fasi della data science

La virtualizzazione dei dati interviene proprio sulla necessità di abbattere queste inefficienze. Si tratta di una tecnologia volta a costruire un Data Fabric e facilitare Delivery e Governance dei dati, creando viste combinate di dati di qualsiasi tipo e di qualsiasi provenienza. La data virtualization porta flessibilità, perchè riduce le complessità di gestione delle sorgenti dei dati, armonizza le necessità degli utenti e introduce al contempo governance e sicurezza.

 

Machine Learning, Data Science e Data Virtualization

 

Il Machine Learning e la Data science sono strettamente legate alla data virtualization per tutto il contributo che quest’ultima riesce a dare alla democratizzazione dei dati. Abbiamo approfondito questo tema nell’ articolo “denodo: Unified Semantic Layer per portare la democrazia e mettere ordine nel caos

BNova, come società di Data Intelligence votata ad una trasformazione digitale completa, ha il suo focus proprio su temi affini alla democratizzazione dei dati al fine di condurre analisi alla portata di tutti. Questo obiettivo, ambizioso, ma sempre più utile ed attuale, passa proprio attraverso la data virtualizatio. BNova ha trovato il partner ideale per completare il processo di trasformazione in Denodo.

 

Democratizzazione del dato a supporto della Data Science

 

La democratizzazione del dato è un passaggio fondamentale durante le prime fasi dei progetti di data science: pensiamo infatti alla necessità da parte dei data scientist di raccogliere e comprendere i dati aziendali. Si parte dall’individuazione delle fonti, interfacciandosi con tutti i vincoli e le limitazioni di accesso esistenti per le diverse sorgenti, si passa poi all’exploration dei dati per poterne comprendere la semantica e relazionare le diverse sorgenti, sino alla loro contestualizzazione per comprendere il significato più ampio di ogni dato e il relativo ruolo a livello di contesto aziendale.

Queste operazioni sono step fondamentali per le successive analisi e modellazioni (ML e Data Science). Un errore nelle valutazioni iniziali o nelle assunzioni potrebbe influire in modo anche abbastanza pesante sull’esito del progetto. Per questo è importante avvalersi di metodologie, come la data virtualization, e di strumenti, come denodo, che danno supporto tecnico a queste prime fasi cruciali e permettono di ridurre al minimo i tempi di realizzazione (e gli errori umani) e al contempo massimizzare la qualità dei risultati grazie a procedure e flussi che guidano gli utenti verso la corretta realizzazione del progetto.

 

Abbiamo parlato di questi argomenti in un recente webinar in cui potrete approfondire le tematiche e le connessioni tra Data science e Data virtualization e quanto queste sinergie possano essere funzionali al miglioramento di logiche di business come il time to market, la self-service analysis e possano essere di sostegno a tutte le division aziendali.

immagine promozionale del white paper sulle fasi della data science