I colli di bottiglia nella data governance ti bloccano?

ll miglioramento del processo decisionale è ormai il primo motore della data governance. Tuttavia, le organizzazioni incontrano ancora una serie di colli di bottiglia che possono impedire loro di realizzare pienamente il valore dei loro dati nella produzione di informazioni aziendali tempestive e pertinenti. Pur riconoscendo che la data governance è qualcosa di più della gestione del rischio e che la conformità alle normative possa indicare che le aziende sono più fiduciose nei loro dati, la pratica di data governance sta tuttavia crescendo in complessità a causa di più:

· Dati da gestire, molti dei quali non strutturati
· Fonti, come l’IoT
· Punti di integrazione
· Regolamenti

Senza una pipeline dei dati aziendali accurata, di alta qualità e in tempo reale, sarà difficile scoprire l’intelligenza necessaria per prendere decisioni aziendali ottimali.

Quindi, cosa sta trattenendo le organizzazioni dall’utilizzare pienamente i loro dati per prendere decisioni aziendali migliori e più intelligenti?

 

Colli di bottiglia della data governance

Il rapporto 2020 State of Data Governance and Automation di Erwin, basato su un sondaggio tra professionisti del business e della tecnologia di organizzazioni di varie dimensioni e in numerosi settori, ha esaminato il ruolo dell’automazione negli sforzi di data governance e intelligence. Ha scoperto una serie di ostacoli che le organizzazioni devono superare per migliorare le loro operazioni sui dati.

Il collo di bottiglia n.1, secondo il 62% degli intervistati, era documentare l’intero “processo” di data lineage. Comprendere la qualità dei dati di origine è il successivo collo di bottiglia più serio (58%); seguito da trovare, identificare e raccogliere i dati (55%); e curare le risorse con il contesto aziendale (52%).

Il rapporto ha rivelato che tutti i possibili colli di bottiglia, tranne due, sono stati segnalati da più del 50 per cento degli intervistati. Chiaramente, c’è un enorme bisogno di un framework di governance dei dati tale da evitare che questi ostacoli impediscano l’innovazione aziendale.

Quando ci siamo concentrati sui colli di bottiglia delle operazioni quotidiane, il 25 per cento degli intervistati ha detto che la lunghezza del progetto/tempo di consegna era la sfida più significativa, seguita dalla qualità/accuratezza dei dati al 24 per cento, dal tempo di valorizzazione al 16 per cento e dalla dipendenza da sviluppatori e altre risorse tecniche al 13 per cento.

 

Superare i colli di bottiglia

Il principio di Pareto dell’80/20 descrive la spiacevole realtà di molti data steward: passano l’80% del loro tempo a trovare, pulire e riorganizzare enormi quantità di dati e solo il 20% all’effettiva analisi dei dati.

Infatti, abbiamo scoperto che quasi il 70% degli intervistati del nostro sondaggio ha trascorso una media di 10 o più ore a settimana in attività relative ai dati, la maggior parte delle quali nella ricerca e nella preparazione dei dati.

Cosa si può fare per tale principio, quindi, superare i colli di bottiglia della governance dei dati?

1. Non ignorare la complessità della data lineage: è un’impresa rischiosa supportare la data lineage utilizzando un approccio manuale, e le aziende che tentano questa strada scopriranno che non è sostenibile dato il costante movimento dei dati da un posto all’altro attraverso molteplici percorsi – e facendolo correttamente colonna per colonna. L’adozione di una data lineage automatizzata ed end-to-end permette di visualizzare il movimento dei dati dall’origine alle strutture di reporting, fornendo una visione completa e dettagliata dei dati in movimento.

2. Automatizzare la generazione di codice: Alleggerire la necessità degli sviluppatori di codificare a mano le connessioni dalle fonti di dati allo schema di destinazione. La mappatura degli elementi di dati alle loro fonti all’interno di un unico repository per determinare la data lineage e armonizzare l’integrazione dei dati attraverso le piattaforme riduce la necessità di risorse tecniche specializzate con conoscenza dell’ETL e del codice procedurale del database. Rende anche più facile per gli analisti di business, gli architetti dei dati, gli sviluppatori ETL, i tester e i project manager collaborare per un processo decisionale più rapido.

3. Usare una soluzione integrata di analisi dell’impatto: Automatizzando la due diligence dei dati per l’IT è possibile avere un’operational intelligence a servizio del business. Gli utenti aziendali beneficiano dell’automazione dell’analisi d’impatto per esaminare meglio il valore e dare priorità ai singoli set di dati. L’analisi d’impatto ha la stessa importanza per l’IT per tracciare automaticamente i cambiamenti e capire come i dati di un sistema alimentano altri sistemi e report. Questo è un aspetto della data lineage, creato dai metadati tecnici, che assicura che nulla si “rompa” lungo la catena dei cambiamenti.

4. Mettere la qualità dei dati al primo posto: Gli utenti devono avere fiducia nei dati che usano per le analisi. L’automazione e la corrispondenza dei termini di business con le risorse di dati e la documentazione del processo di lineage colonna per colonna sono fondamentali per un buon processo decisionale. Se questo approccio non è stato adottato fino ad oggi, le aziende dovrebbero fare qualche passo indietro per rivedere le misure di qualità dei dati prima di lanciarsi nell’automazione dell’analisi dei dati.

5. Catalogare i dati usando una soluzione con un ampio set di connettori di metadati: Tutte le fonti di dati saranno sfruttate, compresi i big data, le piattaforme ETL, i report di BI, gli strumenti di modellazione, i, mainframe e i dati relazionali, nonché i dati provenienti da molti altri tipi di sistemi. Non accontentatevi di un catalogo dati di un fornitore emergente che supporta solo una stretta fascia di tecnologie più recenti, e non fate affidamento su un catalogo di un legacy provider che può fornire solo connettori per fonti di dati standard e più datate.

6. Sollecitare la data literacy: si vuole garantire che le risorse di dati siano utilizzate in modo strategico. L’automazione accelera i benefici della catalogazione dei dati. I set di dati interni ed esterni curati per una serie di autori di contenuti raddoppiano i benefici di business e assicurano una gestione efficace e la monetizzazione delle risorse di dati a lungo termine se collegati a iniziative più ampie di governance dei dati, qualità dei dati e gestione dei metadati. C’è una chiara connessione con la data literacy a causa del suo legame con i glossari aziendali e la diffusione dei dati in modo che tutte le parti interessate possano vederli, capirli e calarli nel contesto dei loro ruoli.

7. Rendere l’automazione la norma in tutti i processi di data governance: Troppe aziende vivono ancora in un mondo in cui la data governance è un mandato di alto livello, non fattivamente implementato. Per realizzare pienamente i vantaggi della data governance e il potere della data intelligence, le operazioni sui dati devono essere automatizzate su tutta la linea. Senza una gestione automatizzata dei dati, il carico di lavoro della governance sul business sarà così grande che la qualità dei dati ne soffrirà inevitabilmente. Essere in grado di rendere conto di tutti i dati aziendali e risolvere la disparità delle fonti di dati e dei silos utilizzando approcci manuali è un desiderio illusorio.

8. Elaborate la vostra strategia di data governance prima di fare qualsiasi investimento: Riunire più stakeholder – sia business che IT – con diversi punti di vista per scoprire dove le loro esigenze si uniscono e dove divergono e cosa rappresenta i maggiori punti di sofferenza per il business. Risolvete prima questi punti, ma create un clima di coinvolgimento e consenso creando una strategia stratificata e completa che alla fine affronterà la maggior parte dei problemi. Da lì, si tratta di far combaciare le vostre esigenze con una soluzione automatizzata di data governance che si adatti al business e all’IT, sia per le esigenze immediate che per i piani futuri.

 

 

Articolo originale dal blog erwin:

? Are Data Governance Bottlenecks Holding You Back?

Approfondimenti da BNext:

Keplero: approccio data driven, Big Data & IoT

La maggior parte dei Big Data sono prodotti da oggetti connessi. Metterli in correlazione con i dati provenienti dagli altri sistemi permette di fare analisi sempre più accurate e approfondite e approcciare strategie data oriented

Tableau e l’AI a supporto degli utenti per la data visualization: Ask Data

Spesso che gli utenti non trovano risposte perché non sanno come porre le proprie domande di business. Usare il linguaggio naturale può aiutare in questo: Tableau Ask Data

Dataiku viene lanciato in AWS Marketplace

Tutti i clienti AWS potranno accedere a Dataiku e sfruttare la potenza dell’AI: infatti Dataiku adesso è disponibile sul marketplace AWS.

Vertica Eon Accelerator: il percorso più rapido per analisi unificate su cloud

Vertica si affaccia al mondo SaaS e al cloud con Vertica Eon Accelerator, il percorso più rapido per analisi unificate su cloud

Keplero: magazzini più efficienti con il picking automatizzato

Quando si parla di logistica non si può non fare riferimento al “magazzino” che si è evoluto con nuove tecnologie (IoT, RFID, dispositivi mobili) che ne hanno modificato e semplificato la gestione: tutto parte dal picking…

Keplero: big data e machine learning per la logistica

Oggi le aziende hanno a che fare con due grandi questioni: clienti sempre più esigenti e profitti in calo. La Digital Transformation diviene essenziale, e ML e BigData sono una reale opportunità

Erwin: dalla data governance alla data democratization

Democratizzazione del dato. Ne abbiamo parlato sotto tante declinazioni. Sicuramente una è quella legata alla Data Governance. Lo strumento leader per fare ciò è Erwin che permette di progettare e creare un’esperienza di organizzazione dati a livello aziendale.

Temporary management e consulenza tecnologica: la forza della partnership tra BNova e CDiManager

I cambiamenti che il temporary manager porta in azienda devono essere sostenuti dal punto di vista tecnologico:la partnership tra BNova e CDi

Denodo e la data virtualization a supporto di Machine Learning e Data Science

Il Machine Learning e la Data science sono strettamente legate alla data virtualization. denodo è il tool ideale individuato da BNova

Temporary Management: la nuova frontiera per il cambiamento

Il temporary management è utile nelle fasi di cambiamento aziendale quando serve supporto oltre alle competenze presenti ad organico