Big Data, Digital Trasformation, strategie data driven, ecco alcune delle parole che hanno caratterizzato i progetti e gli approcci ad essi degli ultimi anni. Ormai un po’ tutte le aziende di medie e grandi dimensioni si sono affacciate, seppur in modi diversi e per diversi scopi e necessità, al mondo della digital trasformation grazie a progetti più o meno standard che, semplificando al massimo, hanno sostanzialmente aperto le porte al passaggio obbligato verso la digitalizzazione dei dati e dei processi aziendali. Adesso ci sono le carte in regole per iniziare ad impostare strategie data-driven per poter prendere decisioni in modo consapevole, guidati dai dati.

Questo passaggio sembra lineare, in effetti è sostanziale, ma altrettanto impegnativo, soprattutto se lo si affronta con mezzi non adatti. Non si tratta solo di guardare verso i progetti di Data Science, ma è necessario lavorare sulla cultura aziendale del dato in modo che i risultati ottenuti da questi progetti possano davvero andare ad essere la base per un nuovo modo di ragionare e prendere decisioni.

Quindi, adesso che di dati a disposizione ce ne sono tanti, quello che si scorge all’orizzonte è un altro tipo di problema: come tratto questi dati per ricavarne valore aggiunto e diventare data-driven company?

Si, perché se è vero che ora i dati non mancano, è altrettanto vero che i tempi stretti della trasformazione digitale e le diverse esigenze e necessità del momento hanno portato le aziende ad avere strutture di archiviazione numerose e diverse: le problematiche più diffuse sono, infatti, la difficoltà di accesso ai dati, e gli alti costi di integrazione delle sorgenti e di gestione dei servizi connessi.

È qui che entra in gioco la Data Virtualization.

 

Cos’è la Data Virtualization?

 

Si tratta di un approccio ai dati completamente diverso rispetto a quello tradizionale e permette di superare molte delle limitazioni e problematiche ad oggi presenti.
Grazie alla data virtualization si può infatti creare una “versione” unica dei dati integrando tutte le diverse sorgenti e fornendone una unica “interfaccia” senza minimamente dover manipolare o spostare le informazioni originali.
Lo scopo ultimo è arrivare ad avere il massimo livello di consapevolezza e controllo sui propri dati, riuscire a mettere a fuoco le relazioni ed avere “tutto sotto controllo” in un unico accesso.

Come funziona?

 

Tra i dati originali e gli utenti finali viene creato un livello intermedio, una specie di vista, un’interfaccia unica che permette agli utenti di accedere ai dati in modo semplice ed intuitivo a prescindere dalla forma e dalla struttura di memorizzazione in cui si trovano i dati originali.

Questo passaggio permette a tutti gli utenti (secondo ruoli e permessi specifici) di ottenere la visione d’insieme di tutti i dati in modo trasparente rispetto alle diverse sorgenti a disposizione.

Quali vantaggi porta la Data Virtualization?

 

Riassumendo molto in breve, sono molti i vantaggi derivanti dall’adozione di un sistema di data virtualization. Alcuni sono più direttamente osservabili:

  • – Semplificazione dell’accesso ai dati di qualunque tipologia, forma e in qualunque sistema sorgente si trovino in originale,
  • – Visione d’insieme che permette anche, d’altra parte, la possibilità di “trasformare” i dati nel formato più utile a seconda del contesto d’uso

Altri aspetti che rendono la Data Virtualization così importante sono dirette conseguenze della sua applicazione, parliamo soprattutto dell’ottimizzazione delle prestazioni di accesso ai dati grazie all’accesso “centralizzato” che permette di ridurre al minimo il tempo di esecuzione delle interrogazioni (query time) e, quindi, rendere più performanti report, dashboard e analitycs in generale.

 

Abbiamo approfondito questo tema durante il webinar “La Data Virtualization a sostegno della Data Science” insieme ad Andrea Zinno, sales Manager di Denodo. 

Guarda il webinar


Approfondimenti da BNext:

Data Science Lifecycle, le 6 (+1) fasi del processo

La Data Science è un campo di studi interdisciplinare il cui obiettivo finale è estrarre informazione e conoscenza utili da dati strutturati o non strutturati. Non esiste un framework unico e universalmente condivido per definire i processi di Data Science, tuttavia, dal punto di vista tecnico lo standard KDD è quello a cui ci si ispira maggiormente, perché indica l’intero processo di ricerca di nuova conoscenza dai dati.

A cosa serve la Data Science?

L’analisi dei dati è in generale una materia molto ampia e con una storia che rimanda indietro di diversi anni da oggi. Si inizia a parlare di analisi dati già alla fine del 1700 con le prime visualizzazioni grafiche e l’evoluzione di questa materia non solo negli...

Churn Strategy: gli step per impostarla al meglio minimizzando il Churn Rate

Churn analysis e churn rate sono due concetti strettamente connessi: l’analisi degli abbandoni (churn analysis) è quella branca della Data Science attraverso cui si cerca di prevedere quali clienti hanno maggiori probabilità di abbandonare l’azienda, cosa che si...

I 6 comandamenti per un Data Storytelling di successo 

Letteralmente il Data Storytelling è l’arte del raccontare una storia attraverso i dati. Si tratta dell’evoluzione della Data Visualization, l’ultimo step di quel lungo processo analitico che ha lo scopo di trasformare i dati provenienti dalle diverse origini di...

Cosa sono i Big Data e come vengono utilizzati?

I Big Data sono ormai entrati a far parte del mercato tecnologico globale, ma spesso questa definizione viene utilizzata senza aver chiaro di cosa si tratta o di quali sono le accortezze e le tecnologie necessarie per poterli sfruttare al meglio nel loro valore...

Chi è e quanto guadagna un Data Engineer?

Fino a qualche tempo fa occuparsi dell’analisi dati in azienda voleva dire fare BI, e non era difficile trovare figure che si occupassero di questo. Nell’ultimo decennio, invece, l’analisi dati si è evoluta in modo esponenziale, si inizia a parlare di Data Science,...

Dataiku e Data Exploration: chi è il miglior detective della serie “Scooby-doo”?

Dataiku e la data exploration, il primo passo per impostare i progetti nel modo più adatto è esplorare i dati e imparare a conoscerli.

Denodo e la data virtualization a supporto di Machine Learning e Data Science

Il Machine Learning e la Data science sono strettamente legate alla data virtualization. denodo è il tool ideale individuato da BNova

Data Science Tools: la cassetta degli attrezzi dei team di Data Scientist

Strumenti tecnologici, piattaforme, linguaggi di programmazione, tools di vario genere rappresentano elementi importanti, gli “attrezzi del mestiere” per i Data Scientist. Ecco alcuni dei linguaggi e dei tools che solitamente non mancano all’interno di un team di Data Scientist.

Natural Language Processing (R)evolution

Reti neurali, AI. Tutte tecnologie che portano all’evoluzione del NLP verso modelli Transformers e Assistenti virtuali.