I colli di bottiglia nella data governance ti bloccano?

ll miglioramento del processo decisionale è ormai il primo motore della data governance. Tuttavia, le organizzazioni incontrano ancora una serie di colli di bottiglia che possono impedire loro di realizzare pienamente il valore dei loro dati nella produzione di informazioni aziendali tempestive e pertinenti. Pur riconoscendo che la data governance è qualcosa di più della gestione del rischio e che la conformità alle normative possa indicare che le aziende sono più fiduciose nei loro dati, la pratica di data governance sta tuttavia crescendo in complessità a causa di più:

· Dati da gestire, molti dei quali non strutturati
· Fonti, come l’IoT
· Punti di integrazione
· Regolamenti

Senza una pipeline dei dati aziendali accurata, di alta qualità e in tempo reale, sarà difficile scoprire l’intelligenza necessaria per prendere decisioni aziendali ottimali.

Quindi, cosa sta trattenendo le organizzazioni dall’utilizzare pienamente i loro dati per prendere decisioni aziendali migliori e più intelligenti?

 

Colli di bottiglia della data governance

Il rapporto 2020 State of Data Governance and Automation di Erwin, basato su un sondaggio tra professionisti del business e della tecnologia di organizzazioni di varie dimensioni e in numerosi settori, ha esaminato il ruolo dell’automazione negli sforzi di data governance e intelligence. Ha scoperto una serie di ostacoli che le organizzazioni devono superare per migliorare le loro operazioni sui dati.

Il collo di bottiglia n.1, secondo il 62% degli intervistati, era documentare l’intero “processo” di data lineage. Comprendere la qualità dei dati di origine è il successivo collo di bottiglia più serio (58%); seguito da trovare, identificare e raccogliere i dati (55%); e curare le risorse con il contesto aziendale (52%).

Il rapporto ha rivelato che tutti i possibili colli di bottiglia, tranne due, sono stati segnalati da più del 50 per cento degli intervistati. Chiaramente, c’è un enorme bisogno di un framework di governance dei dati tale da evitare che questi ostacoli impediscano l’innovazione aziendale.

Quando ci siamo concentrati sui colli di bottiglia delle operazioni quotidiane, il 25 per cento degli intervistati ha detto che la lunghezza del progetto/tempo di consegna era la sfida più significativa, seguita dalla qualità/accuratezza dei dati al 24 per cento, dal tempo di valorizzazione al 16 per cento e dalla dipendenza da sviluppatori e altre risorse tecniche al 13 per cento.

 

Superare i colli di bottiglia

Il principio di Pareto dell’80/20 descrive la spiacevole realtà di molti data steward: passano l’80% del loro tempo a trovare, pulire e riorganizzare enormi quantità di dati e solo il 20% all’effettiva analisi dei dati.

Infatti, abbiamo scoperto che quasi il 70% degli intervistati del nostro sondaggio ha trascorso una media di 10 o più ore a settimana in attività relative ai dati, la maggior parte delle quali nella ricerca e nella preparazione dei dati.

Cosa si può fare per tale principio, quindi, superare i colli di bottiglia della governance dei dati?

1. Non ignorare la complessità della data lineage: è un’impresa rischiosa supportare la data lineage utilizzando un approccio manuale, e le aziende che tentano questa strada scopriranno che non è sostenibile dato il costante movimento dei dati da un posto all’altro attraverso molteplici percorsi – e facendolo correttamente colonna per colonna. L’adozione di una data lineage automatizzata ed end-to-end permette di visualizzare il movimento dei dati dall’origine alle strutture di reporting, fornendo una visione completa e dettagliata dei dati in movimento.

2. Automatizzare la generazione di codice: Alleggerire la necessità degli sviluppatori di codificare a mano le connessioni dalle fonti di dati allo schema di destinazione. La mappatura degli elementi di dati alle loro fonti all’interno di un unico repository per determinare la data lineage e armonizzare l’integrazione dei dati attraverso le piattaforme riduce la necessità di risorse tecniche specializzate con conoscenza dell’ETL e del codice procedurale del database. Rende anche più facile per gli analisti di business, gli architetti dei dati, gli sviluppatori ETL, i tester e i project manager collaborare per un processo decisionale più rapido.

3. Usare una soluzione integrata di analisi dell’impatto: Automatizzando la due diligence dei dati per l’IT è possibile avere un’operational intelligence a servizio del business. Gli utenti aziendali beneficiano dell’automazione dell’analisi d’impatto per esaminare meglio il valore e dare priorità ai singoli set di dati. L’analisi d’impatto ha la stessa importanza per l’IT per tracciare automaticamente i cambiamenti e capire come i dati di un sistema alimentano altri sistemi e report. Questo è un aspetto della data lineage, creato dai metadati tecnici, che assicura che nulla si “rompa” lungo la catena dei cambiamenti.

4. Mettere la qualità dei dati al primo posto: Gli utenti devono avere fiducia nei dati che usano per le analisi. L’automazione e la corrispondenza dei termini di business con le risorse di dati e la documentazione del processo di lineage colonna per colonna sono fondamentali per un buon processo decisionale. Se questo approccio non è stato adottato fino ad oggi, le aziende dovrebbero fare qualche passo indietro per rivedere le misure di qualità dei dati prima di lanciarsi nell’automazione dell’analisi dei dati.

5. Catalogare i dati usando una soluzione con un ampio set di connettori di metadati: Tutte le fonti di dati saranno sfruttate, compresi i big data, le piattaforme ETL, i report di BI, gli strumenti di modellazione, i, mainframe e i dati relazionali, nonché i dati provenienti da molti altri tipi di sistemi. Non accontentatevi di un catalogo dati di un fornitore emergente che supporta solo una stretta fascia di tecnologie più recenti, e non fate affidamento su un catalogo di un legacy provider che può fornire solo connettori per fonti di dati standard e più datate.

6. Sollecitare la data literacy: si vuole garantire che le risorse di dati siano utilizzate in modo strategico. L’automazione accelera i benefici della catalogazione dei dati. I set di dati interni ed esterni curati per una serie di autori di contenuti raddoppiano i benefici di business e assicurano una gestione efficace e la monetizzazione delle risorse di dati a lungo termine se collegati a iniziative più ampie di governance dei dati, qualità dei dati e gestione dei metadati. C’è una chiara connessione con la data literacy a causa del suo legame con i glossari aziendali e la diffusione dei dati in modo che tutte le parti interessate possano vederli, capirli e calarli nel contesto dei loro ruoli.

7. Rendere l’automazione la norma in tutti i processi di data governance: Troppe aziende vivono ancora in un mondo in cui la data governance è un mandato di alto livello, non fattivamente implementato. Per realizzare pienamente i vantaggi della data governance e il potere della data intelligence, le operazioni sui dati devono essere automatizzate su tutta la linea. Senza una gestione automatizzata dei dati, il carico di lavoro della governance sul business sarà così grande che la qualità dei dati ne soffrirà inevitabilmente. Essere in grado di rendere conto di tutti i dati aziendali e risolvere la disparità delle fonti di dati e dei silos utilizzando approcci manuali è un desiderio illusorio.

8. Elaborate la vostra strategia di data governance prima di fare qualsiasi investimento: Riunire più stakeholder – sia business che IT – con diversi punti di vista per scoprire dove le loro esigenze si uniscono e dove divergono e cosa rappresenta i maggiori punti di sofferenza per il business. Risolvete prima questi punti, ma create un clima di coinvolgimento e consenso creando una strategia stratificata e completa che alla fine affronterà la maggior parte dei problemi. Da lì, si tratta di far combaciare le vostre esigenze con una soluzione automatizzata di data governance che si adatti al business e all’IT, sia per le esigenze immediate che per i piani futuri.

 

 

Articolo originale dal blog erwin:

? Are Data Governance Bottlenecks Holding You Back?

Approfondimenti da BNext:

Tableau Government Summit 2021 – Tra cultura del dato e successo economico

Non importa quanto solida sia la tua strategia, se le persone che la eseguono non nutrono la data culture appropriata i tuoi progetti falliranno.

Le tecnologie di data virtualization e di metadata management

Le tecnologie di data virtualization e di metadata management sono fondamentali per una data governance efficace in azienda. Ecco perché

Dataiku: Intelligenza Artificiale per le case farmaceutiche

Oltre il 60% delle aziende farmaceutiche sono state identificate come “principianti” quando si parla della loro maturità riguardo l’AI.

La virtualizzazione dei dati per una efficace data lineage

La data virtualization come tecnologia di integrazione dati. Cos’è e perché è efficace per la data lineage

La data lineage nella Data Governance aziendale

Data lineage: l’origine dei dati, dove e come si spostano nel tempo. Consente di “mappare” tutto il ciclo di vita del dato.

Transizione 4.0: la strategia per imprese più smart e green

Da Industria 4.0 a Transizione 4.0 per fronteggiare la crisi ed incentivare le imprese ad investire nell’innovazione e nella sostenibilità

Grafici animati, autoML, analisi geospaziali: le novità di VerticaPy v0.6

VerticaPy è una libreria Python che espone funzionalità scikit-like per la conduzione di progetti di Data Science all’interno del tuo database Vertica. Nella v0.6 sono davvero tante le nuove funzionalità.

Asset Tracking: come tracciare le risorse in tempo reale

Opportunità e vantaggi per chi guarda nuove soluzioni tecnologiche: Keplero e l’Asset Tracking, il tracciamento intelligente basato sull’IoT

denodo: quando la Data Virtualization fa la differenza

La data virtualization è trasversale e può fare la differenza in quelle situazioni in cui i dati sono su diverse fonti da integrare

Keplero: il progetto ASSIST per il monitoring dei mezzi spargisale

Keplero progetto ASSIST è un SaaS cui i clienti (Comuni, Enti, grandi aziende) accedono per verificare che tutto funzioni correttamente