Negli ultimi 20 anni c’è stata una grandissima evoluzione nelle aziende, soprattutto in quelle di grandi dimensioni: le diverse linee di business e dipartimenti aziendali hanno scelto una propria strada per l’analisi dei dati utilizzando le tecnologie più in linea con le singole necessità, sia in termini tecnici (database, datawarehouse), sia per quello che riguarda gli strumenti di front-end, a questo è legata la nascita dei cosiddetti “silos dipartimentali”, ambienti diversi ed eterogenei in cui ogni dipartimento tiene i dati che raccoglie e usa, e gli strumenti per farlo. È molto frequente quindi adesso trovare situazioni in cui all’interno della stessa azienda si utilizzano prodotti eterogenei, diversi, ma con finalità simili tra loro, e che spesso non riescono a mettersi in correlazione a causa di scelte tecnologiche incompatibili. A questo si aggiunge la crescente richiesta di strumenti per le analisi Self Service, il chè ha portato da un lato una ulteriore dipartimentalizzazione degli strumenti analitici, quindi “più caos”, dall’altro la necessità di competenze più ampie in tema di analisi dati sia per l’utente finale, che può comporsi in autonomia la sua analisi, per cui deve (dovrebbe…) avere un’idea di cosa sta facendo, sia per le figure tecniche che si occupano della manutenzione di questi strumenti di Self Service Analytics, i quali non saranno più interpellati solo per la creazione di un nuovo grafico, ma sempre più spesso anche per questioni legate ai dati, alla loro disponibilità, qualità e all’uso degli strumenti.

Le ricadute di queste scelte sono principalmente a livello IT” dice Stefano Celati, BI expert di BNova, nel suo intervento “How to democratize Reporting Tools with Unified Semantic Layer?” al Fast Data Strategy Virtual Summit di Denodo dello scorso aprile. Ci si trova a dover manutenere diversi datawarehouses, tecnologie e semantiche su tutti i prodotti presenti in azienda, con la necessità spesso di dover ripetere le stesse azioni più volte ed a livelli differenti secondo lo strumento e la tecnologia in uso in quel momento o in quel dipartimento, con tutte le problematiche e i rischi che ne possono seguire. Per questo motivo frequentemente le aziende si vedono costrette ad imporre restrizioni rispetto agli strumenti, proprio per non sovraccaricare l’IT di lavoro ripetitivo e soggetto ad errore umano.

 

Universal Semantic Layer per mettere ordine nel caos

 

È poco realistico chiedere alle diverse aree di business di rivoluzionare il proprio modo di lavorare stravolgendo l’uso degli strumenti (o aggiungendone di nuovi), è possibile però andare incontro alle esigenze dell’IT per rendere più semplice la manutenzione di tutti i diversi ed eterogenei sistemi: si parla di democratizzazione del dato e dell’approccio “Universal Semantic Layer“.

Creare un “livello semantico unificato” significa fornire un’unica interfaccia ai dati provenienti dalle diverse origini in un singolo livello, un po’ come fosse un unico grande ed eterogeneo “data lake virtuale”.  Questo si può fare in modo semplice utilizzando la Data Virtualization, una metodologia grazie alla quale i dati provenienti da più origini diverse vengono “unificati” in modo virtuale, senza spostarli da dove si trovano, ma rendendoli disponibili ai data consumer (utenti fisici o strumenti) in tempo reale. Ciò semplifica molto il lavoro dell’IT in quanto si possono dare definizioni globali solo una volta, utilizzando meno risorse e senza dover replicare le modifiche per ogni data consumer.

Grazie a Denodo è possibile creare questo strato semantico senza bisogno di creare complessi processi ETL di integrazione e senza muovere i dati dalla loro origine, riuscendo a creare una visione olistica del dato che elimina gran parte degli ostacoli che l’approccio dipartimentale ha introdotto nella sua stratificazione temporale.” Cit. Stefano Celati

 

New call-to-action

Approfondimenti da BNext:

Transfer learning: cos’è, i modelli e quando utilizzarlo

Lo sviluppo legato all’intelligenza artificiale coinvolge un’ampia varietà di metodi e tecniche, che possono valorizzare l’abilità di riutilizzare in maniera corretta ed efficiente il lavoro precedentemente svolto. Tale prospettiva viene in particolar modo enfatizzata...

Digital twin: cos’è e come funziona un gemello digitale

I digital twin sono una delle espressioni più affascinanti della trasformazione digitale, in particolare quella che fa riferimento al paradigma del 4.0, sia in ambito industriale che in altre applicazioni civili. Il concetto su cui si basa la tecnologia risalirebbe...

Data Lineage: come assicurarsi qualità e integrità dei dati

Tracciare i dati attraverso il loro ciclo di vita è un tema di valenza strategica. Perché una corretta Data Lineage ci garantisce l’accuratezza e l’integrità dei dati?

Deep learning: cos’è e quali le applicazioni 

Nell’ampio vocabolario dell’intelligenza artificiale c’è una tecnica sempre più diffusa che promette di affrontare i problemi più complessi: il deep learning. Grazie all’impiego delle reti neurali profonde, il deep learning consente di correlare i dati con una...

Machine learning e deep learning: quali le differenze

Machine learning (ML) e deep learning (DL) sono termini sempre più ricorrenti nel vocabolario tecnologico, oltre ad essere sempre più utilizzate nelle applicazioni enterprise e mainstream. Prima di entrare nel merito, per comprendere in cosa consistono e cosa le...

Dataiku: cosa c’è da sapere sulla nuova release

Le novità più importanti della release 11.0 e 11.1.0 spiegate dal nostro data scientist Emiliano Fuccio

ETL, il significato di Extract, Transform, Load: cos’è e a cosa serve

I dati vengono ormai generati con un flusso incessante, in ogni singolo istante, da miliardi di dispositivi interconnessi in tutto il mondo. Ma come è possibile estrarre valore da questa straordinaria risorsa digitale? Il paradigma Big Data, gli Advanced Analytics e...

Data ingestion: significato, esempi e vantaggi 

La data ingestion è una tecnologia molto importante nell’aiutare le organizzazioni a gestire un volume di dati sempre più ingente e complesso, anche per via della sua straordinaria eterogeneità. Se ben implementata, la data ingestion può infatti generare un...

Le differenze tra intelligenza artificiale debole e forte

L’intelligenza artificiale è una tecnologia ormai entrata stabilmente a far parte della nostra quotidianità, dai semplici assistenti domestici ai più complessi sistemi di robotica industriale. Nella sua definizione più ampia, l’intelligenza artificiale è un termine...

Cos’è la Data Quality e le metriche di riferimento

La Data Quality è una misura della condizione dei dati basata su fattori quali accuratezza, completezza, coerenza, affidabilità e se sono aggiornati. La misurazione dei livelli di qualità dei dati può aiutare le organizzazioni a identificare gli errori nei dati che...