Dati, dati, sempre più dati ovunque, su server on-premise, dispositivi vari, strumenti cloud. Questo modus operandi comporta il rischio della creazione di silos di dati isolati, impedendo alle aziende di avere una visione globale ed univoca di quali dati hanno, dove li hanno e quale siano le sorgenti, rendendo vane tutte le best practice di data governance adottate o adottabili, e creando inefficienze anche in termini di operatività e produttività aziendale.

La virtualizzazione dei dati interviene proprio sulla necessità di abbattere queste inefficienze. Si tratta di una tecnologia volta a costruire un Data Fabric e facilitare Delivery e Governance dei dati, creando viste combinate di dati di qualsiasi tipo e di qualsiasi provenienza. La data virtualization porta flessibilità, perchè riduce le complessità di gestione delle sorgenti dei dati, armonizza le necessità degli utenti e introduce al contempo governance e sicurezza.

 

Machine Learning, Data Science e Data Virtualization

 

Il Machine Learning e la Data science sono strettamente legate alla data virtualization per tutto il contributo che quest’ultima riesce a dare alla democratizzazione dei dati. Abbiamo approfondito questo tema nell’ articolo “denodo: Unified Semantic Layer per portare la democrazia e mettere ordine nel caos

BNova, come società di Data Intelligence votata ad una trasformazione digitale completa, ha il suo focus proprio su temi affini alla democratizzazione dei dati al fine di condurre analisi alla portata di tutti. Questo obiettivo, ambizioso, ma sempre più utile ed attuale, passa proprio attraverso la data virtualizatio. BNova ha trovato il partner ideale per completare il processo di trasformazione in Denodo.

 

Democratizzazione del dato a supporto della Data Science

 

La democratizzazione del dato è un passaggio fondamentale durante le prime fasi dei progetti di data science: pensiamo infatti alla necessità da parte dei data scientist di raccogliere e comprendere i dati aziendali. Si parte dall’individuazione delle fonti, interfacciandosi con tutti i vincoli e le limitazioni di accesso esistenti per le diverse sorgenti, si passa poi all’exploration dei dati per poterne comprendere la semantica e relazionare le diverse sorgenti, sino alla loro contestualizzazione per comprendere il significato più ampio di ogni dato e il relativo ruolo a livello di contesto aziendale.

Queste operazioni sono step fondamentali per le successive analisi e modellazioni (ML e Data Science). Un errore nelle valutazioni iniziali o nelle assunzioni potrebbe influire in modo anche abbastanza pesante sull’esito del progetto. Per questo è importante avvalersi di metodologie, come la data virtualization, e di strumenti, come denodo, che danno supporto tecnico a queste prime fasi cruciali e permettono di ridurre al minimo i tempi di realizzazione (e gli errori umani) e al contempo massimizzare la qualità dei risultati grazie a procedure e flussi che guidano gli utenti verso la corretta realizzazione del progetto.

 

Abbiamo parlato di questi argomenti in un recente webinar in cui potrete approfondire le tematiche e le connessioni tra Data science e Data virtualization e quanto queste sinergie possano essere funzionali al miglioramento di logiche di business come il time to market, la self-service analysis e possano essere di sostegno a tutte le division aziendali.

 

 

Guarda il webinar



Approfondimenti da BNext:

A cosa serve la Data Science?

L’analisi dei dati è in generale una materia molto ampia e con una storia che rimanda indietro di diversi anni da oggi. Si inizia a parlare di analisi dati già alla fine del 1700 con le prime visualizzazioni grafiche e l’evoluzione di questa materia non solo negli...

IoT Analytics: il valore di applicare il Machine Learning all’IoT 

L’Iot consiste in un sistema formato da dispositivi informatici univoci e interconnessi, capaci di scambiare dati attraverso la rete in maniera autonoma, sfruttando un protocollo di comunicazione. Quando ci si riferisce all’Internet of Things (IoT), infatti, si pensa...

Come scegliere la giusta Data Visualization? I nuovi trend 

La Data Visualization è definita come la rappresentazione grafica di dati e informazioni, ed abbiamo già trattato quanto questo strumento grafico sia capace di rendere informazioni complesse o difficili da interpretare, comprensibili ed accessibili anche per utenti...

Decision support system: cosa sono e come aiutano le aziende 

Negli ultimi decenni il grande e rapido sviluppo delle tecnologie e dell’informatica ha portato le attività aziendali di ogni settore verso un approccio “intelligente”, guidato dai dati. Ciò ha permesso di spostare sempre più il focus sul cliente e sui suoi bisogni e...

Churn Strategy: gli step per impostarla al meglio minimizzando il Churn Rate

Churn analysis e churn rate sono due concetti strettamente connessi: l’analisi degli abbandoni (churn analysis) è quella branca della Data Science attraverso cui si cerca di prevedere quali clienti hanno maggiori probabilità di abbandonare l’azienda, cosa che si...

Cosa sono e come funzionano i sistemi di raccomandazione 

Prima della diffusione di internet e dei motori di ricerca, trovare informazioni utili ad uno specifico argomento o contesto era molto difficile, richiedeva tempo, ricerche lunghe e faticose, e spesso risultava costoso in quanto non era inusuale dover acquistare libri...

Datafication: cos’è e che impatto ha sulla nostra vita quotidiana

Cos’è la Datafication e perché se ne parla  Per datafication si intende tutto il processo tecnologico che trasforma i vari aspetti della vita quotidiana, sociale ed individuale di ogni persona in dati i quali, opportunamente trattati ed analizzati, si trasformano...

Ottimizzare la customer care: le tecniche di profilazione, dal clustering alle analisi RFM 

Partiamo dal presupposto che mantenere i propri clienti sia meno costoso e più remunerativo di doverne trovare di nuovi. Per trovare clienti nuovi sono infatti necessarie strategie ed azioni che risultano essere anche 6-7 volte più costose rispetto al lavoro...

Industria 4.0 e strategie di manutenzione: le differenze tra manutenzione reattiva, preventiva e predittiva 

Per comprendere al meglio le caratteristiche e le potenzialità dell’Industria 4.0 è importante fare chiarezza sul mix tecnologico e di conoscenze che hanno portato dall’Industry 1.0, rivoluzione della manifattura grazie all’energia meccanica, fino all’Industry 2.0,...

Pre-vedere per meglio decidere: IoT e analytics per la gestione di processi event-driven 

I sistemi IoT fanno parte di tutte quelle tecnologie riconosciute come abilitanti per l’Industry 4.0, in grado di abilitare l’interconnessione dei servizi e fornire la possibilità di gestire processi e risorse in modo intelligente e consapevole. Si tratta di sistemi...