Negli ultimi 20 anni c’è stata una grandissima evoluzione nelle aziende, soprattutto in quelle di grandi dimensioni: le diverse linee di business e dipartimenti aziendali hanno scelto una propria strada per l’analisi dei dati utilizzando le tecnologie più in linea con le singole necessità, sia in termini tecnici (database, datawarehouse), sia per quello che riguarda gli strumenti di front-end, a questo è legata la nascita dei cosiddetti “silos dipartimentali”, ambienti diversi ed eterogenei in cui ogni dipartimento tiene i dati che raccoglie e usa, e gli strumenti per farlo. È molto frequente quindi adesso trovare situazioni in cui all’interno della stessa azienda si utilizzano prodotti eterogenei, diversi, ma con finalità simili tra loro, e che spesso non riescono a mettersi in correlazione a causa di scelte tecnologiche incompatibili. A questo si aggiunge la crescente richiesta di strumenti per le analisi Self Service, il chè ha portato da un lato una ulteriore dipartimentalizzazione degli strumenti analitici, quindi “più caos”, dall’altro la necessità di competenze più ampie in tema di analisi dati sia per l’utente finale, che può comporsi in autonomia la sua analisi, per cui deve (dovrebbe…) avere un’idea di cosa sta facendo, sia per le figure tecniche che si occupano della manutenzione di questi strumenti di Self Service Analytics, i quali non saranno più interpellati solo per la creazione di un nuovo grafico, ma sempre più spesso anche per questioni legate ai dati, alla loro disponibilità, qualità e all’uso degli strumenti.

Le ricadute di queste scelte sono principalmente a livello IT” dice Stefano Celati, BI expert di BNova, nel suo intervento “How to democratize Reporting Tools with Unified Semantic Layer?” al Fast Data Strategy Virtual Summit di Denodo dello scorso aprile. Ci si trova a dover manutenere diversi datawarehouses, tecnologie e semantiche su tutti i prodotti presenti in azienda, con la necessità spesso di dover ripetere le stesse azioni più volte ed a livelli differenti secondo lo strumento e la tecnologia in uso in quel momento o in quel dipartimento, con tutte le problematiche e i rischi che ne possono seguire. Per questo motivo frequentemente le aziende si vedono costrette ad imporre restrizioni rispetto agli strumenti, proprio per non sovraccaricare l’IT di lavoro ripetitivo e soggetto ad errore umano.

 

Universal Semantic Layer per mettere ordine nel caos

 

È poco realistico chiedere alle diverse aree di business di rivoluzionare il proprio modo di lavorare stravolgendo l’uso degli strumenti (o aggiungendone di nuovi), è possibile però andare incontro alle esigenze dell’IT per rendere più semplice la manutenzione di tutti i diversi ed eterogenei sistemi: si parla di democratizzazione del dato e dell’approccio “Universal Semantic Layer“.

Creare un “livello semantico unificato” significa fornire un’unica interfaccia ai dati provenienti dalle diverse origini in un singolo livello, un po’ come fosse un unico grande ed eterogeneo “data lake virtuale”.  Questo si può fare in modo semplice utilizzando la Data Virtualization, una metodologia grazie alla quale i dati provenienti da più origini diverse vengono “unificati” in modo virtuale, senza spostarli da dove si trovano, ma rendendoli disponibili ai data consumer (utenti fisici o strumenti) in tempo reale. Ciò semplifica molto il lavoro dell’IT in quanto si possono dare definizioni globali solo una volta, utilizzando meno risorse e senza dover replicare le modifiche per ogni data consumer.

Grazie a Denodo è possibile creare questo strato semantico senza bisogno di creare complessi processi ETL di integrazione e senza muovere i dati dalla loro origine, riuscendo a creare una visione olistica del dato che elimina gran parte degli ostacoli che l’approccio dipartimentale ha introdotto nella sua stratificazione temporale.” Cit. Stefano Celati

 

New call-to-action

Approfondimenti da BNext:

Cosa sono e come funzionano i sistemi di raccomandazione 

Prima della diffusione di internet e dei motori di ricerca, trovare informazioni utili ad uno specifico argomento o contesto era molto difficile, richiedeva tempo, ricerche lunghe e faticose, e spesso risultava costoso in quanto non era inusuale dover acquistare libri...

Datafication: cos’è e che impatto ha sulla nostra vita quotidiana

Cos’è la Datafication e perché se ne parla  Per datafication si intende tutto il processo tecnologico che trasforma i vari aspetti della vita quotidiana, sociale ed individuale di ogni persona in dati i quali, opportunamente trattati ed analizzati, si trasformano...

Ottimizzare la customer care: le tecniche di profilazione, dal clustering alle analisi RFM 

Partiamo dal presupposto che mantenere i propri clienti sia meno costoso e più remunerativo di doverne trovare di nuovi. Per trovare clienti nuovi sono infatti necessarie strategie ed azioni che risultano essere anche 6-7 volte più costose rispetto al lavoro...

Industria 4.0 e strategie di manutenzione: le differenze tra manutenzione reattiva, preventiva e predittiva 

Per comprendere al meglio le caratteristiche e le potenzialità dell’Industria 4.0 è importante fare chiarezza sul mix tecnologico e di conoscenze che hanno portato dall’Industry 1.0, rivoluzione della manifattura grazie all’energia meccanica, fino all’Industry 2.0,...

Pre-vedere per meglio decidere: IoT e analytics per la gestione di processi event-driven 

I sistemi IoT fanno parte di tutte quelle tecnologie riconosciute come abilitanti per l’Industry 4.0, in grado di abilitare l’interconnessione dei servizi e fornire la possibilità di gestire processi e risorse in modo intelligente e consapevole. Si tratta di sistemi...

La matematica a servizio della finanza

Quando si parla di finanza le attività che vengono in mente sono di vario tipo: valutazione delle attività finanziare e assicurative, misurazione del rischio di prodotti finanziari, studio di tecniche di copertura del rischio con strumenti di ottimizzazione,...

Fare ordine tra i dati: dalla Data Quality alla Data Governance 

Mettere ordine tra i propri dati aziendali è il primo passo, lo step fondamentale per riuscire a governarli e ad utilizzarli nel modo più opportuno e proficuo per l’azienda.   Diamo qui per scontato che i dati aziendali siano “sporchi” per natura, perché...

Dati statici e dinamici: quali sono le differenze?

La contrapposizione tra i concetti di “statico” e “dinamico” è da sempre presente in tantissimi settori ed ambiti, compreso quello informatico. Si parla ad esempio di statico/dinamico in ambito economico rispetto all’impostazione dei prezzi, ma anche in relazione alla...

Cos’è e come viene condotta l’analisi dei dati?

L’analisi dei dati non è sempre stata come la intendiamo oggi, ma è frutto di molti anni di evoluzione. I primi passi risalgono all’esplosione della Business Intelligence, attività che ha aperto la strada  a questo tipo di analisi perché ha permesso agli utenti...

BNova e DAMA: una nuova collaborazione per ampliare gli orizzonti del Data Management

Si amplia la rete di collaborazioni che contraddistingue l’operato di BNova. Siamo molto entusiasti nell’annunciare la nostra adesione a DAMA Italy, Chapter italiano dell'International Data Management Association. L'associazione promuove la conoscenza della cultura...