Dati, dati, sempre più dati ovunque, su server on-premise, dispositivi vari, strumenti cloud. Questo modus operandi comporta il rischio della creazione di silos di dati isolati, impedendo alle aziende di avere una visione globale ed univoca di quali dati hanno, dove li hanno e quale siano le sorgenti, rendendo vane tutte le best practice di data governance adottate o adottabili, e creando inefficienze anche in termini di operatività e produttività aziendale.

La virtualizzazione dei dati interviene proprio sulla necessità di abbattere queste inefficienze. Si tratta di una tecnologia volta a costruire un Data Fabric e facilitare Delivery e Governance dei dati, creando viste combinate di dati di qualsiasi tipo e di qualsiasi provenienza. La data virtualization porta flessibilità, perchè riduce le complessità di gestione delle sorgenti dei dati, armonizza le necessità degli utenti e introduce al contempo governance e sicurezza.

 

Machine Learning, Data Science e Data Virtualization

 

Il Machine Learning e la Data science sono strettamente legate alla data virtualization per tutto il contributo che quest’ultima riesce a dare alla democratizzazione dei dati. Abbiamo approfondito questo tema nell’ articolo “denodo: Unified Semantic Layer per portare la democrazia e mettere ordine nel caos

BNova, come società di Data Intelligence votata ad una trasformazione digitale completa, ha il suo focus proprio su temi affini alla democratizzazione dei dati al fine di condurre analisi alla portata di tutti. Questo obiettivo, ambizioso, ma sempre più utile ed attuale, passa proprio attraverso la data virtualizatio. BNova ha trovato il partner ideale per completare il processo di trasformazione in Denodo.

 

Democratizzazione del dato a supporto della Data Science

 

La democratizzazione del dato è un passaggio fondamentale durante le prime fasi dei progetti di data science: pensiamo infatti alla necessità da parte dei data scientist di raccogliere e comprendere i dati aziendali. Si parte dall’individuazione delle fonti, interfacciandosi con tutti i vincoli e le limitazioni di accesso esistenti per le diverse sorgenti, si passa poi all’exploration dei dati per poterne comprendere la semantica e relazionare le diverse sorgenti, sino alla loro contestualizzazione per comprendere il significato più ampio di ogni dato e il relativo ruolo a livello di contesto aziendale.

Queste operazioni sono step fondamentali per le successive analisi e modellazioni (ML e Data Science). Un errore nelle valutazioni iniziali o nelle assunzioni potrebbe influire in modo anche abbastanza pesante sull’esito del progetto. Per questo è importante avvalersi di metodologie, come la data virtualization, e di strumenti, come denodo, che danno supporto tecnico a queste prime fasi cruciali e permettono di ridurre al minimo i tempi di realizzazione (e gli errori umani) e al contempo massimizzare la qualità dei risultati grazie a procedure e flussi che guidano gli utenti verso la corretta realizzazione del progetto.

 

Abbiamo parlato di questi argomenti in un recente webinar in cui potrete approfondire le tematiche e le connessioni tra Data science e Data virtualization e quanto queste sinergie possano essere funzionali al miglioramento di logiche di business come il time to market, la self-service analysis e possano essere di sostegno a tutte le division aziendali.

 

 

Guarda il webinar



Approfondimenti da BNext:

Deep learning: cos’è e quali le applicazioni 

Nell’ampio vocabolario dell’intelligenza artificiale c’è una tecnica sempre più diffusa che promette di affrontare i problemi più complessi: il deep learning. Grazie all’impiego delle reti neurali profonde, il deep learning consente di correlare i dati con una...

Machine learning e deep learning: quali le differenze

Machine learning (ML) e deep learning (DL) sono termini sempre più ricorrenti nel vocabolario tecnologico, oltre ad essere sempre più utilizzate nelle applicazioni enterprise e mainstream. Prima di entrare nel merito, per comprendere in cosa consistono e cosa le...

Dataiku: cosa c’è da sapere sulla nuova release

Le novità più importanti della release 11.0 e 11.1.0 spiegate dal nostro data scientist Emiliano Fuccio

ETL, il significato di Extract, Transform, Load: cos’è e a cosa serve

I dati vengono ormai generati con un flusso incessante, in ogni singolo istante, da miliardi di dispositivi interconnessi in tutto il mondo. Ma come è possibile estrarre valore da questa straordinaria risorsa digitale? Il paradigma Big Data, gli Advanced Analytics e...

Data ingestion: significato, esempi e vantaggi 

La data ingestion è una tecnologia molto importante nell’aiutare le organizzazioni a gestire un volume di dati sempre più ingente e complesso, anche per via della sua straordinaria eterogeneità. Se ben implementata, la data ingestion può infatti generare un...

Le differenze tra intelligenza artificiale debole e forte

L’intelligenza artificiale è una tecnologia ormai entrata stabilmente a far parte della nostra quotidianità, dai semplici assistenti domestici ai più complessi sistemi di robotica industriale. Nella sua definizione più ampia, l’intelligenza artificiale è un termine...

Cos’è la Data Quality e le metriche di riferimento

La Data Quality è una misura della condizione dei dati basata su fattori quali accuratezza, completezza, coerenza, affidabilità e se sono aggiornati. La misurazione dei livelli di qualità dei dati può aiutare le organizzazioni a identificare gli errori nei dati che...

OLAP e OLTP: cosa sono e quali le differenze 

La trasformazione digitale ha portato le aziende ad essere sempre più data-driven, orientando i loro processi e le loro decisioni nella prospettiva delle operazioni e delle analisi di quantità e varietà di dati sempre più importanti. È infatti ormai decisamente...

Data as a Service: cos’è a cosa serve

I modelli a servizi disponibili in cloud consentono di avere nuove opzioni di utilizzo dei dati, molto più flessibili e scalabili rispetto ai sistemi di gestione tradizionali. È il caso del Data as a Service (Daas), una soluzione strategica in grado di semplificare...

Data Science Lifecycle, le 6 (+1) fasi del processo

La Data Science è un campo di studi interdisciplinare il cui obiettivo finale è estrarre informazione e conoscenza utili da dati strutturati o non strutturati. Non esiste un framework unico e universalmente condivido per definire i processi di Data Science, tuttavia, dal punto di vista tecnico lo standard KDD è quello a cui ci si ispira maggiormente, perché indica l’intero processo di ricerca di nuova conoscenza dai dati.