Dati, dati, sempre più dati ovunque, su server on-premise, dispositivi vari, strumenti cloud. Questo modus operandi comporta il rischio della creazione di silos di dati isolati, impedendo alle aziende di avere una visione globale ed univoca di quali dati hanno, dove li hanno e quale siano le sorgenti, rendendo vane tutte le best practice di data governance adottate o adottabili, e creando inefficienze anche in termini di operatività e produttività aziendale.

La virtualizzazione dei dati interviene proprio sulla necessità di abbattere queste inefficienze. Si tratta di una tecnologia volta a costruire un Data Fabric e facilitare Delivery e Governance dei dati, creando viste combinate di dati di qualsiasi tipo e di qualsiasi provenienza. La data virtualization porta flessibilità, perchè riduce le complessità di gestione delle sorgenti dei dati, armonizza le necessità degli utenti e introduce al contempo governance e sicurezza.

 

Machine Learning, Data Science e Data Virtualization

Il Machine Learning e la Data science sono strettamente legate alla data virtualization per tutto il contributo che quest’ultima riesce a dare alla democratizzazione dei dati. Abbiamo approfondito questo tema nell’ articolo “denodo: Unified Semantic Layer per portare la democrazia e mettere ordine nel caos

BNova, come società di Data Intelligence votata ad una trasformazione digitale completa, ha il suo focus proprio su temi affini alla democratizzazione dei dati al fine di condurre analisi alla portata di tutti. Questo obiettivo, ambizioso, ma sempre più utile ed attuale, passa proprio attraverso la data virtualizatio. BNova ha trovato il partner ideale per completare il processo di trasformazione in Denodo.

 

Democratizzazione del dato a supporto della Data Science

La democratizzazione del dato è un passaggio fondamentale durante le prime fasi dei progetti di data science: pensiamo infatti alla necessità da parte dei data scientist di raccogliere e comprendere i dati aziendali. Si parte dall’individuazione delle fonti, interfacciandosi con tutti i vincoli e le limitazioni di accesso esistenti per le diverse sorgenti, si passa poi all’exploration dei dati per poterne comprendere la semantica e relazionare le diverse sorgenti, sino alla loro contestualizzazione per comprendere il significato più ampio di ogni dato e il relativo ruolo a livello di contesto aziendale.

Queste operazioni sono step fondamentali per le successive analisi e modellazioni (ML e Data Science). Un errore nelle valutazioni iniziali o nelle assunzioni potrebbe influire in modo anche abbastanza pesante sull’esito del progetto. Per questo è importante avvalersi di metodologie, come la data virtualization, e di strumenti, come denodo, che danno supporto tecnico a queste prime fasi cruciali e permettono di ridurre al minimo i tempi di realizzazione (e gli errori umani) e al contempo massimizzare la qualità dei risultati grazie a procedure e flussi che guidano gli utenti verso la corretta realizzazione del progetto.

 

Abbiamo parlato di questi argomenti in un recente webinar in cui potrete approfondire le tematiche e le connessioni tra Data science e Data virtualization e quanto queste sinergie possano essere funzionali al miglioramento di logiche di business come il time to market, la self-service analysis e possano essere di sostegno a tutte le division aziendali.

 

Guarda il webinar

Approfondimenti da BNext:

Keplero: approccio data driven, Big Data & IoT

La maggior parte dei Big Data sono prodotti da oggetti connessi. Metterli in correlazione con i dati provenienti dagli altri sistemi permette di fare analisi sempre più accurate e approfondite e approcciare strategie data oriented

Tableau e l’AI a supporto degli utenti per la data visualization: Ask Data

Spesso che gli utenti non trovano risposte perché non sanno come porre le proprie domande di business. Usare il linguaggio naturale può aiutare in questo: Tableau Ask Data

Dataiku viene lanciato in AWS Marketplace

Tutti i clienti AWS potranno accedere a Dataiku e sfruttare la potenza dell’AI: infatti Dataiku adesso è disponibile sul marketplace AWS.

Vertica Eon Accelerator: il percorso più rapido per analisi unificate su cloud

Vertica si affaccia al mondo SaaS e al cloud con Vertica Eon Accelerator, il percorso più rapido per analisi unificate su cloud

Keplero: magazzini più efficienti con il picking automatizzato

Quando si parla di logistica non si può non fare riferimento al “magazzino” che si è evoluto con nuove tecnologie (IoT, RFID, dispositivi mobili) che ne hanno modificato e semplificato la gestione: tutto parte dal picking…

Keplero: big data e machine learning per la logistica

Oggi le aziende hanno a che fare con due grandi questioni: clienti sempre più esigenti e profitti in calo. La Digital Transformation diviene essenziale, e ML e BigData sono una reale opportunità

Erwin: dalla data governance alla data democratization

Democratizzazione del dato. Ne abbiamo parlato sotto tante declinazioni. Sicuramente una è quella legata alla Data Governance. Lo strumento leader per fare ciò è Erwin che permette di progettare e creare un’esperienza di organizzazione dati a livello aziendale.

Temporary management e consulenza tecnologica: la forza della partnership tra BNova e CDiManager

I cambiamenti che il temporary manager porta in azienda devono essere sostenuti dal punto di vista tecnologico:la partnership tra BNova e CDi

Temporary Management: la nuova frontiera per il cambiamento

Il temporary management è utile nelle fasi di cambiamento aziendale quando serve supporto oltre alle competenze presenti ad organico

Tableau: quanto è importante la Data Visualization?

Quando si parla di “scienza” si tende a non associare gli aspetti creativi, ma senza una buona rappresentazione sono “solo numeri” comprensibili solo da chi li ha prodotti