Dati, dati, sempre più dati ovunque, su server on-premise, dispositivi vari, strumenti cloud. Questo modus operandi comporta il rischio della creazione di silos di dati isolati, impedendo alle aziende di avere una visione globale ed univoca di quali dati hanno, dove li hanno e quale siano le sorgenti, rendendo vane tutte le best practice di data governance adottate o adottabili, e creando inefficienze anche in termini di operatività e produttività aziendale.

La virtualizzazione dei dati interviene proprio sulla necessità di abbattere queste inefficienze. Si tratta di una tecnologia volta a costruire un Data Fabric e facilitare Delivery e Governance dei dati, creando viste combinate di dati di qualsiasi tipo e di qualsiasi provenienza. La data virtualization porta flessibilità, perchè riduce le complessità di gestione delle sorgenti dei dati, armonizza le necessità degli utenti e introduce al contempo governance e sicurezza.

 

Machine Learning, Data Science e Data Virtualization

 

Il Machine Learning e la Data science sono strettamente legate alla data virtualization per tutto il contributo che quest’ultima riesce a dare alla democratizzazione dei dati. Abbiamo approfondito questo tema nell’ articolo “denodo: Unified Semantic Layer per portare la democrazia e mettere ordine nel caos

BNova, come società di Data Intelligence votata ad una trasformazione digitale completa, ha il suo focus proprio su temi affini alla democratizzazione dei dati al fine di condurre analisi alla portata di tutti. Questo obiettivo, ambizioso, ma sempre più utile ed attuale, passa proprio attraverso la data virtualizatio. BNova ha trovato il partner ideale per completare il processo di trasformazione in Denodo.

 

Democratizzazione del dato a supporto della Data Science

 

La democratizzazione del dato è un passaggio fondamentale durante le prime fasi dei progetti di data science: pensiamo infatti alla necessità da parte dei data scientist di raccogliere e comprendere i dati aziendali. Si parte dall’individuazione delle fonti, interfacciandosi con tutti i vincoli e le limitazioni di accesso esistenti per le diverse sorgenti, si passa poi all’exploration dei dati per poterne comprendere la semantica e relazionare le diverse sorgenti, sino alla loro contestualizzazione per comprendere il significato più ampio di ogni dato e il relativo ruolo a livello di contesto aziendale.

Queste operazioni sono step fondamentali per le successive analisi e modellazioni (ML e Data Science). Un errore nelle valutazioni iniziali o nelle assunzioni potrebbe influire in modo anche abbastanza pesante sull’esito del progetto. Per questo è importante avvalersi di metodologie, come la data virtualization, e di strumenti, come denodo, che danno supporto tecnico a queste prime fasi cruciali e permettono di ridurre al minimo i tempi di realizzazione (e gli errori umani) e al contempo massimizzare la qualità dei risultati grazie a procedure e flussi che guidano gli utenti verso la corretta realizzazione del progetto.

 

Abbiamo parlato di questi argomenti in un recente webinar in cui potrete approfondire le tematiche e le connessioni tra Data science e Data virtualization e quanto queste sinergie possano essere funzionali al miglioramento di logiche di business come il time to market, la self-service analysis e possano essere di sostegno a tutte le division aziendali.

 

 

Guarda il webinar



Approfondimenti da BNext:

Churn rate: cos’è, come si calcola e come gestirlo

Customer churn rate, tecniche e strumenti per capire quali sono le cause che portano un cliente a cercare alternative

Overfitting e Underfitting: cosa sono e come gestirli

Il machine learning (apprendimento automatico) è una delle discipline dell’intelligenza artificiale più diffuse, grazie alla sua capacità di analizzare i dati per cercare soluzioni sempre più efficaci ad un problema noto. La scienza dei dati ha compiuto enormi...

Manutenzione nell’Industria 4.0: cosa cambia 

L’Industria 4.0 ha ridefinito vari aspetti della fabbrica tradizionale, non soltanto quelli tipicamente legati alla produzione, coinvolgendo tutte le fasi del ciclo di vita, grazie al contributo di nuovi metodi e tecnologie abilitanti. È il caso dei processi di...

Change Data Capture (CDC): i vantaggi e come funziona

Il data management è una disciplina incredibilmente varia e complessa, che si compone di varie componenti, come la data replication. In questo contesto si sta progressivamente imponendo una specifica metodologia: il change data capture, che consente di rilevare e...

XAI o eXplainable AI: cos’è e come funziona

Le grandi aspettative create sull’intelligenza artificiale hanno spinto le aziende ad interessarsi alle sue applicazioni, per capire come utilizzarle per migliorare il proprio business, scoprendo che molto spesso ciò avviene quando la AI si rivela in grado di...

Data warehouse vs database: differenze e come scegliere

Database e data warehouse sono indubbiamente tra i sistemi di gestione dei dati più popolari e diffusi in ambito aziendale. Ma quali sono realmente le differenze più significative? Come vengono utilizzati e perché sono, oggi più che mai, fondamentali in un contesto IT...

Intelligenza artificiale: i pro e i contro

L’intelligenza artificiale è la tecnologia emergente più discussa del momento. Le immense potenzialità di strumenti come ChatGPT hanno riportato una volta di più al centro dell’attenzione mediatica un argomento tecnologico che fonda le proprie radici nei lontani anni...

MATE: interrogare i “Big Data” attraverso il linguaggio naturale

BNova insieme all’Universita’ di Pisa sviluppa MATE, sistema che permette di interrogare i “Big Data” attraverso il linguaggio naturale. Il progetto MATE (Meta lAyer between naTural language and databasE) nasce dalla fruttuosa collaborazione tra il Dipartimento di...

Data Integration: cos’è, a cosa serve e i diversi approcci

La gestione dei dati costituisce un fattore essenziale per le aziende digitali. In questo contesto, rientra a pieno titolo la data integration, indispensabile nell’ottica di realizzare un concreto valore aggiunto per il business. Gli enormi flussi di dati strutturati...

Transfer learning: cos’è, i modelli e quando utilizzarlo

Lo sviluppo legato all’intelligenza artificiale coinvolge un’ampia varietà di metodi e tecniche, che possono valorizzare l’abilità di riutilizzare in maniera corretta ed efficiente il lavoro precedentemente svolto. Tale prospettiva viene in particolar modo enfatizzata...