Negli ultimi 20 anni c’è stata una grandissima evoluzione nelle aziende, soprattutto in quelle di grandi dimensioni: le diverse linee di business e dipartimenti aziendali hanno scelto una propria strada per l’analisi dei dati utilizzando le tecnologie più in linea con le singole necessità, sia in termini tecnici (database, datawarehouse), sia per quello che riguarda gli strumenti di front-end, a questo è legata la nascita dei cosiddetti “silos dipartimentali”, ambienti diversi ed eterogenei in cui ogni dipartimento tiene i dati che raccoglie e usa, e gli strumenti per farlo. È molto frequente quindi adesso trovare situazioni in cui all’interno della stessa azienda si utilizzano prodotti eterogenei, diversi, ma con finalità simili tra loro, e che spesso non riescono a mettersi in correlazione a causa di scelte tecnologiche incompatibili. A questo si aggiunge la crescente richiesta di strumenti per le analisi Self Service, il chè ha portato da un lato una ulteriore dipartimentalizzazione degli strumenti analitici, quindi “più caos”, dall’altro la necessità di competenze più ampie in tema di analisi dati sia per l’utente finale, che può comporsi in autonomia la sua analisi, per cui deve (dovrebbe…) avere un’idea di cosa sta facendo, sia per le figure tecniche che si occupano della manutenzione di questi strumenti di Self Service Analytics, i quali non saranno più interpellati solo per la creazione di un nuovo grafico, ma sempre più spesso anche per questioni legate ai dati, alla loro disponibilità, qualità e all’uso degli strumenti.

Le ricadute di queste scelte sono principalmente a livello IT” dice Stefano Celati, BI expert di BNova, nel suo intervento “How to democratize Reporting Tools with Unified Semantic Layer?” al Fast Data Strategy Virtual Summit di Denodo dello scorso aprile. Ci si trova a dover manutenere diversi datawarehouses, tecnologie e semantiche su tutti i prodotti presenti in azienda, con la necessità spesso di dover ripetere le stesse azioni più volte ed a livelli differenti secondo lo strumento e la tecnologia in uso in quel momento o in quel dipartimento, con tutte le problematiche e i rischi che ne possono seguire. Per questo motivo frequentemente le aziende si vedono costrette ad imporre restrizioni rispetto agli strumenti, proprio per non sovraccaricare l’IT di lavoro ripetitivo e soggetto ad errore umano.

 

Universal Semantic Layer per mettere ordine nel caos

 

È poco realistico chiedere alle diverse aree di business di rivoluzionare il proprio modo di lavorare stravolgendo l’uso degli strumenti (o aggiungendone di nuovi), è possibile però andare incontro alle esigenze dell’IT per rendere più semplice la manutenzione di tutti i diversi ed eterogenei sistemi: si parla di democratizzazione del dato e dell’approccio “Universal Semantic Layer“.

Creare un “livello semantico unificato” significa fornire un’unica interfaccia ai dati provenienti dalle diverse origini in un singolo livello, un po’ come fosse un unico grande ed eterogeneo “data lake virtuale”.  Questo si può fare in modo semplice utilizzando la Data Virtualization, una metodologia grazie alla quale i dati provenienti da più origini diverse vengono “unificati” in modo virtuale, senza spostarli da dove si trovano, ma rendendoli disponibili ai data consumer (utenti fisici o strumenti) in tempo reale. Ciò semplifica molto il lavoro dell’IT in quanto si possono dare definizioni globali solo una volta, utilizzando meno risorse e senza dover replicare le modifiche per ogni data consumer.

Grazie a Denodo è possibile creare questo strato semantico senza bisogno di creare complessi processi ETL di integrazione e senza muovere i dati dalla loro origine, riuscendo a creare una visione olistica del dato che elimina gran parte degli ostacoli che l’approccio dipartimentale ha introdotto nella sua stratificazione temporale.” Cit. Stefano Celati

 

New call-to-action

Approfondimenti da BNext:

Profilazione clienti: cos’è e come farla efficacemente 

Quando si chiede ad un imprenditore quali siano gli aspetti del business che vorrebbe migliorare, molto spesso si riscontra l’esigenza tangibile di conoscere meglio la propria clientela, sia per definire in maniera più precisa il...

Data lake vs data warehouse: le differenze e quale scegliere

Nell’era del digitale le organizzazioni collezionano dati provenienti da varie sorgenti, con una quantità ed una varietà che vanno ben oltre ciò per cui i tradizionali database relazionali sono stati concepiti. In particolare, emergono limiti nell’ambito delle...

Data Fabric: cos’è e quali i vantaggi nel suo utilizzo

Le aziende si trovano ad interfacciarsi con ambienti sempre più diversificati, distribuiti e complessi. Rendere agile la gestione dei dati aziendali diventa quindi una priorità: è necessario guardare oltre le tradizionali pratiche di data management, così da gestire al meglio i costi grazie a soluzioni moderne, come ad esempio il #LogicalDataFabric.

Data Lake: cos’è e quando utilizzarlo per l’archiviazione

La trasformazione digitale sta progressivamente aumentando il volume dei dati con cui le aziende si interfacciano ormai in tempo reale per supportare i loro processi. I dati vengono acquisiti dai sistemi aziendali con grande velocità, con numeriche decisamente...

Analisi predittiva: cos’è, le diverse fasi e i modelli predittivi

Il mercato dei business analytics sta crescendo con grande rapidità, con stime miliardarie prospettate da tutti i principali analisti. Secondo Markets and Markets, il mercato dell’analisi predittiva potrebbe valere circa 28 miliardi di dollari entro il 2026. Si tratta...

Dati sintetici: cosa sono, tipologie e quando utilizzarli

L’intelligenza artificiale dispone di una serie di tecniche in grado di rivoluzionare le attività in tantissimi settori, sia in ambito enterprise che nelle applicazioni tipicamente consumer. Per alimentare il proprio operato, gli algoritmi di machine learning...

Analisi predittiva: cos’è, esempi e modelli utilizzati

Le tecniche di analisi predittiva sono presenti da moltissimi anni. Tuttavia, di recente si è assistito ad una considerevole maturazione e diffusione delle sue applicazioni, grazie all’implementazione sempre più massiccia dei dati digitali acquisiti dalle varie...

Churn rate: cos’è, come si calcola e come gestirlo

Customer churn rate, tecniche e strumenti per capire quali sono le cause che portano un cliente a cercare alternative

Overfitting e Underfitting: cosa sono e come gestirli

Il machine learning (apprendimento automatico) è una delle discipline dell’intelligenza artificiale più diffuse, grazie alla sua capacità di analizzare i dati per cercare soluzioni sempre più efficaci ad un problema noto. La scienza dei dati ha compiuto enormi...

Manutenzione nell’Industria 4.0: cosa cambia 

L’Industria 4.0 ha ridefinito vari aspetti della fabbrica tradizionale, non soltanto quelli tipicamente legati alla produzione, coinvolgendo tutte le fasi del ciclo di vita, grazie al contributo di nuovi metodi e tecnologie abilitanti. È il caso dei processi di...