Negli ultimi 20 anni c’è stata una grandissima evoluzione nelle aziende, soprattutto in quelle di grandi dimensioni: le diverse linee di business e dipartimenti aziendali hanno scelto una propria strada per l’analisi dei dati utilizzando le tecnologie più in linea con le singole necessità, sia in termini tecnici (database, datawarehouse), sia per quello che riguarda gli strumenti di front-end, a questo è legata la nascita dei cosiddetti “silos dipartimentali”, ambienti diversi ed eterogenei in cui ogni dipartimento tiene i dati che raccoglie e usa, e gli strumenti per farlo. È molto frequente quindi adesso trovare situazioni in cui all’interno della stessa azienda si utilizzano prodotti eterogenei, diversi, ma con finalità simili tra loro, e che spesso non riescono a mettersi in correlazione a causa di scelte tecnologiche incompatibili. A questo si aggiunge la crescente richiesta di strumenti per le analisi Self Service, il chè ha portato da un lato una ulteriore dipartimentalizzazione degli strumenti analitici, quindi “più caos”, dall’altro la necessità di competenze più ampie in tema di analisi dati sia per l’utente finale, che può comporsi in autonomia la sua analisi, per cui deve (dovrebbe…) avere un’idea di cosa sta facendo, sia per le figure tecniche che si occupano della manutenzione di questi strumenti di Self Service Analytics, i quali non saranno più interpellati solo per la creazione di un nuovo grafico, ma sempre più spesso anche per questioni legate ai dati, alla loro disponibilità, qualità e all’uso degli strumenti.

Le ricadute di queste scelte sono principalmente a livello IT” dice Stefano Celati, BI expert di BNova, nel suo intervento “How to democratize Reporting Tools with Unified Semantic Layer?” al Fast Data Strategy Virtual Summit di Denodo dello scorso aprile. Ci si trova a dover manutenere diversi datawarehouses, tecnologie e semantiche su tutti i prodotti presenti in azienda, con la necessità spesso di dover ripetere le stesse azioni più volte ed a livelli differenti secondo lo strumento e la tecnologia in uso in quel momento o in quel dipartimento, con tutte le problematiche e i rischi che ne possono seguire. Per questo motivo frequentemente le aziende si vedono costrette ad imporre restrizioni rispetto agli strumenti, proprio per non sovraccaricare l’IT di lavoro ripetitivo e soggetto ad errore umano.

 

Universal Semantic Layer per mettere ordine nel caos

 

È poco realistico chiedere alle diverse aree di business di rivoluzionare il proprio modo di lavorare stravolgendo l’uso degli strumenti (o aggiungendone di nuovi), è possibile però andare incontro alle esigenze dell’IT per rendere più semplice la manutenzione di tutti i diversi ed eterogenei sistemi: si parla di democratizzazione del dato e dell’approccio “Universal Semantic Layer“.

Creare un “livello semantico unificato” significa fornire un’unica interfaccia ai dati provenienti dalle diverse origini in un singolo livello, un po’ come fosse un unico grande ed eterogeneo “data lake virtuale”.  Questo si può fare in modo semplice utilizzando la Data Virtualization, una metodologia grazie alla quale i dati provenienti da più origini diverse vengono “unificati” in modo virtuale, senza spostarli da dove si trovano, ma rendendoli disponibili ai data consumer (utenti fisici o strumenti) in tempo reale. Ciò semplifica molto il lavoro dell’IT in quanto si possono dare definizioni globali solo una volta, utilizzando meno risorse e senza dover replicare le modifiche per ogni data consumer.

Grazie a Denodo è possibile creare questo strato semantico senza bisogno di creare complessi processi ETL di integrazione e senza muovere i dati dalla loro origine, riuscendo a creare una visione olistica del dato che elimina gran parte degli ostacoli che l’approccio dipartimentale ha introdotto nella sua stratificazione temporale.” Cit. Stefano Celati

 

New call-to-action

Approfondimenti da BNext:

Data Science Lifecycle, le 6 (+1) fasi del processo

La Data Science è un campo di studi interdisciplinare il cui obiettivo finale è estrarre informazione e conoscenza utili da dati strutturati o non strutturati. Non esiste un framework unico e universalmente condivido per definire i processi di Data Science, tuttavia, dal punto di vista tecnico lo standard KDD è quello a cui ci si ispira maggiormente, perché indica l’intero processo di ricerca di nuova conoscenza dai dati.

Cos’è la data monetization e come si implementa in azienda

Lo scopo di tutte le attività che vengono pianificate ed effettuate all’interno di qualunque azienda è quello di creare profitto. L’uso dei dati, in quanto nuovo asset aziendale, mantiene questa linea. Esistono diversi modi di utilizzare i dati aziendali, ed anche in...

Data Mesh: un nuovo approccio architetturale 

Nell’epoca dei Big Data ci troviamo quotidianamente ad affiancare le aziende nella definizione di strategie data driven e ad aiutarle a diventare o a mantenersi competitive nei mercati di riferimento. I dati in questo senso rappresentano un aspetto centrale ed anche...

A cosa serve la Data Science?

L’analisi dei dati è in generale una materia molto ampia e con una storia che rimanda indietro di diversi anni da oggi. Si inizia a parlare di analisi dati già alla fine del 1700 con le prime visualizzazioni grafiche e l’evoluzione di questa materia non solo negli...

IoT Analytics: il valore di applicare il Machine Learning all’IoT 

L’Iot consiste in un sistema formato da dispositivi informatici univoci e interconnessi, capaci di scambiare dati attraverso la rete in maniera autonoma, sfruttando un protocollo di comunicazione. Quando ci si riferisce all’Internet of Things (IoT), infatti, si pensa...

Come scegliere la giusta Data Visualization? I nuovi trend 

La Data Visualization è definita come la rappresentazione grafica di dati e informazioni, ed abbiamo già trattato quanto questo strumento grafico sia capace di rendere informazioni complesse o difficili da interpretare, comprensibili ed accessibili anche per utenti...

Decision support system: cosa sono e come aiutano le aziende 

Negli ultimi decenni il grande e rapido sviluppo delle tecnologie e dell’informatica ha portato le attività aziendali di ogni settore verso un approccio “intelligente”, guidato dai dati. Ciò ha permesso di spostare sempre più il focus sul cliente e sui suoi bisogni e...

Churn Strategy: gli step per impostarla al meglio minimizzando il Churn Rate

Churn analysis e churn rate sono due concetti strettamente connessi: l’analisi degli abbandoni (churn analysis) è quella branca della Data Science attraverso cui si cerca di prevedere quali clienti hanno maggiori probabilità di abbandonare l’azienda, cosa che si...

Cosa sono e come funzionano i sistemi di raccomandazione 

Prima della diffusione di internet e dei motori di ricerca, trovare informazioni utili ad uno specifico argomento o contesto era molto difficile, richiedeva tempo, ricerche lunghe e faticose, e spesso risultava costoso in quanto non era inusuale dover acquistare libri...

Datafication: cos’è e che impatto ha sulla nostra vita quotidiana

Cos’è la Datafication e perché se ne parla  Per datafication si intende tutto il processo tecnologico che trasforma i vari aspetti della vita quotidiana, sociale ed individuale di ogni persona in dati i quali, opportunamente trattati ed analizzati, si trasformano...