Al giorno d’oggi è sempre più diffuso l’avvicinamento delle aziende alle soluzioni cloudperché architetture di questo tipo sono in grado di “autoregolare” le risorse a seconda delle necessità del momento (scalabilità). Ciò permette alle aziende di ottimizzare i costi rispetto all’uso reale delle risorse e, parallelamente, garantire performance adeguate in ogni situazione minimizzando gli sprechi. Se da un lato questa sembra essere la soluzione ai problemi, dall’altro, inevitabilmente, rivolgersi a questo tipo di architetture aggiunge complessità alle infrastrutture aziendali poiché la gestione dei sistemi cloud è complessa, e diventa vantaggiosa solo quando viene gestita in modo adeguato. 

Nella nostra esperienza abbiamo potuto verificare che spesso proprio quest’ultimo aspetto, la complessità infrastrutturale e la relativa necessità di risorse e competenze per gestirla (non solo legate al cloud, ma alla volontà di intraprendere la strada della digital trasformation), è ciò che più frena le aziende nell’avviare percorsi di questo tipo. Si tratta però di un passaggio fondamentale per rimanere competitivi sul mercato di riferimento o per raggiungere nuovi segmenti ed ampliare il proprio business.  

Come consulenti ci poniamo continuamente il problema di come “semplificare” complessità di questo tipo, proprio per accompagnare i nostri clienti in percorsi di trasformazione ed evoluzione. Uno degli approcci più risolutivi è senza dubbio quello della Data Virtualization: i sistemi di Data Virtualization per natura creano una sorta di “interfaccia” tra l’utente e i dati, in questo modo gli utenti si interfacciano ai dati, dovunque essi siano, senza dover conoscere o gestire le policy di accesso, ma grazie ad un “livello” intermedio che ne maschera la complessità e li democratizza per l’utente finale. È facile comprendere come un meccanismo di questo tipo possa aiutare a semplificare la situazione di fronte ad architetture complesse come quelle del cloud! 

Abbiamo già  trattato in questi articoli cos’è la Data Virtualization, le sue caratteristiche e i vantaggi e benefici ottenibili dall’uso della virtualizzazione in contesti e architetture tradizionali in cui le informazioni aziendali si trovano su diversi silos di dati, non sempre facilmente accessibili. Oggi, con la sempre maggiore diffusione delle soluzioni cloud (e multi-cloud) le informazioni aziendali sono ancora più distribuite su sorgenti differenti e ciò comporta un aumento delle problematiche relative alla gestione, sicurezza e business continuity.  

La soluzione? Virtualizzare i dati! 

Per noi la soluzione più performante in ambito Data Virtualization è Denodo: permette di migliorare la gestione e, di conseguenza, l’uso dei dati aziendali semplificando per l’utente finale gli aspetti relativi alle policy di accesso e in generale alla gestione delle sorgenti e dei datiDenodo inoltre consente di avere una visione d’insieme dei dati che permette agli utilizzatori di contestualizzare tutte le informazioni e decidere come “trasformare” i dati nel formato più utile a seconda del contesto d’uso. 

 

Ancora non conosci denodo? Guarda questo webinar di presentazione e demo del prodotto:  

Guarda il webinar

Approfondimenti da BNext:

Data Governance: cosa può fare per aiutare il business

La Data Governance è di supporto per aumentare efficacia ed efficienza dei processi, aiuta a gestire la sicurezza, la privacy, ad ottimizzare le risorse e a garantire agli utenti trasparenza ed affidabilità

Dataiku e Data Exploration: chi è il miglior detective della serie “Scooby-doo”?

Dataiku e la data exploration, il primo passo per impostare i progetti nel modo più adatto è esplorare i dati e imparare a conoscerli.

Keplero: il ruolo dei Big Data per ottimizzare i processi aziendali

Generare Big Data non si traduce automaticamente in un vantaggio, è necessario raccoglierli e gestirli in modo adeguato per sfruttarli al meglio e diventare una Data Driven Enterprise in grado di sfruttare il proprio patrimonio informativo attraverso un sistema in cui le decisioni sono guidate dai dati e dagli analytics

Keplero: approccio data driven, Big Data & IoT

La maggior parte dei Big Data sono prodotti da oggetti connessi. Metterli in correlazione con i dati provenienti dagli altri sistemi permette di fare analisi sempre più accurate e approfondite e approcciare strategie data oriented

Dataiku viene lanciato in AWS Marketplace

Tutti i clienti AWS potranno accedere a Dataiku e sfruttare la potenza dell’AI: infatti Dataiku adesso è disponibile sul marketplace AWS.

Vertica Eon Accelerator: il percorso più rapido per analisi unificate su cloud

Vertica si affaccia al mondo SaaS e al cloud con Vertica Eon Accelerator, il percorso più rapido per analisi unificate su cloud

Keplero: magazzini più efficienti con il picking automatizzato

Quando si parla di logistica non si può non fare riferimento al “magazzino” che si è evoluto con nuove tecnologie (IoT, RFID, dispositivi mobili) che ne hanno modificato e semplificato la gestione: tutto parte dal picking…

Keplero: big data e machine learning per la logistica

Oggi le aziende hanno a che fare con due grandi questioni: clienti sempre più esigenti e profitti in calo. La Digital Transformation diviene essenziale, e ML e BigData sono una reale opportunità

Temporary management e consulenza tecnologica: la forza della partnership tra BNova e CDiManager

I cambiamenti che il temporary manager porta in azienda devono essere sostenuti dal punto di vista tecnologico:la partnership tra BNova e CDi

Denodo e la data virtualization a supporto di Machine Learning e Data Science

Il Machine Learning e la Data science sono strettamente legate alla data virtualization. denodo è il tool ideale individuato da BNova