Big Data, Digital Trasformation, strategie data driven, ecco alcune delle parole che hanno caratterizzato i progetti e gli approcci ad essi degli ultimi anni. Ormai un po’ tutte le aziende di medie e grandi dimensioni si sono affacciate, seppur in modi diversi e per diversi scopi e necessità, al mondo della digital trasformation grazie a progetti più o meno standard che, semplificando al massimo, hanno sostanzialmente aperto le porte al passaggio obbligato verso la digitalizzazione dei dati e dei processi aziendali. Adesso ci sono le carte in regole per iniziare ad impostare strategie data-driven per poter prendere decisioni in modo consapevole, guidati dai dati.

Questo passaggio sembra lineare, in effetti è sostanziale, ma altrettanto impegnativo, soprattutto se lo si affronta con mezzi non adatti. Non si tratta solo di guardare verso i progetti di Data Science, ma è necessario lavorare sulla cultura aziendale del dato in modo che i risultati ottenuti da questi progetti possano davvero andare ad essere la base per un nuovo modo di ragionare e prendere decisioni.

Quindi, adesso che di dati a disposizione ce ne sono tanti, quello che si scorge all’orizzonte è un altro tipo di problema: come tratto questi dati per ricavarne valore aggiunto e diventare data-driven company?

Si, perché se è vero che ora i dati non mancano, è altrettanto vero che i tempi stretti della trasformazione digitale e le diverse esigenze e necessità del momento hanno portato le aziende ad avere strutture di archiviazione numerose e diverse: le problematiche più diffuse sono, infatti, la difficoltà di accesso ai dati, e gli alti costi di integrazione delle sorgenti e di gestione dei servizi connessi.

È qui che entra in gioco la Data Virtualization.

 

Cos’è la Data Virtualization?

 

Si tratta di un approccio ai dati completamente diverso rispetto a quello tradizionale e permette di superare molte delle limitazioni e problematiche ad oggi presenti.
Grazie alla data virtualization si può infatti creare una “versione” unica dei dati integrando tutte le diverse sorgenti e fornendone una unica “interfaccia” senza minimamente dover manipolare o spostare le informazioni originali.
Lo scopo ultimo è arrivare ad avere il massimo livello di consapevolezza e controllo sui propri dati, riuscire a mettere a fuoco le relazioni ed avere “tutto sotto controllo” in un unico accesso.

Come funziona?

 

Tra i dati originali e gli utenti finali viene creato un livello intermedio, una specie di vista, un’interfaccia unica che permette agli utenti di accedere ai dati in modo semplice ed intuitivo a prescindere dalla forma e dalla struttura di memorizzazione in cui si trovano i dati originali.

Questo passaggio permette a tutti gli utenti (secondo ruoli e permessi specifici) di ottenere la visione d’insieme di tutti i dati in modo trasparente rispetto alle diverse sorgenti a disposizione.

Quali vantaggi porta la Data Virtualization?

 

Riassumendo molto in breve, sono molti i vantaggi derivanti dall’adozione di un sistema di data virtualization. Alcuni sono più direttamente osservabili:

  • – Semplificazione dell’accesso ai dati di qualunque tipologia, forma e in qualunque sistema sorgente si trovino in originale,
  • – Visione d’insieme che permette anche, d’altra parte, la possibilità di “trasformare” i dati nel formato più utile a seconda del contesto d’uso

Altri aspetti che rendono la Data Virtualization così importante sono dirette conseguenze della sua applicazione, parliamo soprattutto dell’ottimizzazione delle prestazioni di accesso ai dati grazie all’accesso “centralizzato” che permette di ridurre al minimo il tempo di esecuzione delle interrogazioni (query time) e, quindi, rendere più performanti repost, dashboard e analitycs in generale.

 

Abbiamo approfondito questo tema durante il webinar “La Data Virtualization a sostegno della Data Science” insieme ad Andrea Zinno, sales Manager di Denodo. 

Guarda il webinar

Approfondimenti da BNext:

Eyes4Innovation, la rete che ti semplifica la vita

La rete ti semplifica la vita. Ecco la massima sintesi del motivo per cui è nata Eyes4Innovation, ed anche lo scopo ultimo perseguito dalle aziende fondatrici. Scopri com’è andato l’evento di presentazione.

Dataiku: le novità della release 9

Dataiku, tante novità. Le energie si concentrano sul processo di trasformazione e analisi del dato e sulla collaborazione con altri tool, come Tableau

Vertica apre le porte alla Data Science

La Data Science, in termini di supporto decisionale alle aziende, ha un potenziale enorme, ma è una materia molto ampia e di carattere sperimentale: non necessariamente l’algoritmo migliore per un settore si rivela buono anche in realtà aziendali...

Dataiku: Intelligenza Artificiale per le case farmaceutiche

Oltre il 60% delle aziende farmaceutiche sono state identificate come “principianti” quando si parla della loro maturità riguardo l’AI.

Data Science Tools: la cassetta degli attrezzi dei team di Data Scientist

Strumenti tecnologici, piattaforme, linguaggi di programmazione, tools di vario genere rappresentano elementi importanti, gli “attrezzi del mestiere” per i Data Scientist. Ecco alcuni dei linguaggi e dei tools che solitamente non mancano all’interno di un team di Data Scientist.

Data Scientist, chi sono e cosa fanno per aiutare le aziende

Oggi i dati rappresentano uno degli asset più critici ed importanti per un’azienda (e non solo), tant’è che ormai si parla dei dati come del nuovo petrolio nell’economia dell’informazione e della conoscenza. Chi lavora sui dati e con i dati gode di un grande vantaggio. Ma chi sono davvero i Data Scientist e cosa fanno concretamente per aiutare le aziende?

Dataiku: i consigli per scegliere il giusto progetto di Data Science

Con decine di potenziali use case ma risorse limitate, è importante dare priorità ai progetti che hanno sia un alto valore di business che un’alta probabilità di successo. I consigli di Dataiku

Le 6 (+1) fasi del processo tipico di Data Science

La Data Science è un campo di studi interdisciplinare il cui obiettivo finale è estrarre informazione e conoscenza utili da dati strutturati o non strutturati. Non esiste un framework unico e universalmente condivido per definire i processi di Data Science, tuttavia, dal punto di vista tecnico lo standard KDD è quello a cui ci si ispira maggiormente, perché indica l’intero processo di ricerca di nuova conoscenza dai dati.

RFM: le analisi sui clienti quali sistemi di supporto alle decisioni

Parliamo delle analisi RFM, pilastro di una data driven company. Sono analisi per la segmentazione della clientela e restituiscono valori ed informazioni utili che diventano la base per fare valutazioni strategiche e prendere decisioni più oggettive, basate sui dati.

Non voglio mica la Luna! L’arte di aver cura dei propri clienti

Oggi si sta creando un circuito virtuoso in cui il consumatore vuole un nuovo legame di fiducia. Il brand è chiamato a “reagire”, quindi fare tutto ciò che serve per soddisfare le necessità del cliente e soddisfare la sua “sete” di fiducia