La Data Science, in termini di supporto decisionale alle aziende, ha un potenziale enorme, ma è una materia molto ampia e di carattere sperimentale: non necessariamente l’algoritmo migliore per un settore si rivela buono anche in realtà aziendali diverse. Ogni tecnica e algoritmo ha caratteristiche particolari che lo rendono adatto per certi aspetti, ma può rilevarsi poco informativo su altri. Per questo è importante avere un team che ben conosca le diverse caratteristiche delle tecniche analitiche in modo da poter individuare la soluzione migliore al contesto aziendale per evitare di esporsi a spese e rischi inutili ed investire anzi le proprie energie solo sugli aspetti che davvero portano un vantaggio.

D’altro canto la necessità di fare (e di usare) analisi di questo tipo è sempre più diffusa anche da parte di utenti non tecnici, ad esempio in ambito marketing o sales, che non sono tenuti invece a conoscere tecnicamente le diverse sfaccettature. È però importante che, almeno ad alto livello, anche loro abbiano per lo meno la percezione della varietà presente dietro queste analisi e della conseguente ampia scelta di tecniche analitiche e algoritmi.

A dimostrazione di quanto sia importante diffondere questa consapevolezza proponiamo una recente iniziativa di Vertica: un corso di Data Science gratuito, fruibile da tutti direttamente su youtube, e caratterizzato dalla presenza di elementi teorici ai quali vengono man mano associati casi pratici in modo da calare i diversi concetti in un reale contesto applicativo e permettere anche a utenti non tecnici di percepirne le potenzialità.

Vertica, DB analitico leader di mercato, non solo si sta evolvendo per fornire ai propri utilizzatori tecnici funzionalità analitiche sempre più potenti e performanti (“Grafici animati, autoML, analisi geospaziali: le novità di VerticaPy v0.6“), ma sta mostrando di non aver timore di diffondere la cultura del dato e delle analitiche sul dato. Anzi, la volontà è proprio quella di diffondere conoscenza per aumentare la fiducia verso queste tematiche a vantaggio della trasformazione strategica delle aziende in ottica Data Driven.

 

Il corso di Data Science di Vertica

Ogni settimana Vertica pubblica video su diversi concetti di Data Science, preparazione e modellazione dei dati e algoritmi.

Nel primo video si parla di analisi di correlazione. Vengono mostrate alcune delle principali funzioni che possono essere usate per implementare diversi tipi di correlazione: ogni funzione rappresenta un “modello” che si adatta a particolari contesti. È importante sapere che ne esistono di diverso tipo e conoscere le diverse caratteristiche di ognuna per poter identificare quella che meglio descrive il contesto aziendale. Per questo è importante sapere che non esiste una sola forma di correlazione, ma che, a seconda del dominio, della forma dei dati e del risultato che si vuole ottenere, la scelta di una certa funzione può dimostrarsi “migliore” (più adatta) di un’altra.

correlation_functions

Si parla inoltre delle best practises per impostare correttamente un progetto e valutarne la bontà, ed è l’occasione giusta per introdurre nel corso Jupiter, l’ambiente in cui scrivere il proprio codice python sfruttando le funzionalità di VerticaPy.

Il secondo videoHow to develop telco attribution model for marketing compaign” è a tutti gli effetti la presentazione di un case per la creazione di un modello destinato al marketing. Si parte dall’analisi delle azioni dei clienti fino ad arrivare ad impostare una profilazione degli utenti e comprendere le cause delle loro azioni.

Approfondimenti da BNext:

Data Governance: cosa può fare per aiutare il business

La Data Governance è di supporto per aumentare efficacia ed efficienza dei processi, aiuta a gestire la sicurezza, la privacy, ad ottimizzare le risorse e a garantire agli utenti trasparenza ed affidabilità

Dataiku e Data Exploration: chi è il miglior detective della serie “Scooby-doo”?

Dataiku e la data exploration, il primo passo per impostare i progetti nel modo più adatto è esplorare i dati e imparare a conoscerli.

Keplero: il ruolo dei Big Data per ottimizzare i processi aziendali

Generare Big Data non si traduce automaticamente in un vantaggio, è necessario raccoglierli e gestirli in modo adeguato per sfruttarli al meglio e diventare una Data Driven Enterprise in grado di sfruttare il proprio patrimonio informativo attraverso un sistema in cui le decisioni sono guidate dai dati e dagli analytics

denodo: tutto su cloud, con il supporto della Data Virtualization

Il cloud risolve problemi di gestione costi e risorse, ma aggiunge complessità infrastrutturale: è questo che più frena le aziende nella trasformazione digitale. Denodo è la soluzione di Data Virtualization scelta da BNova

Keplero: approccio data driven, Big Data & IoT

La maggior parte dei Big Data sono prodotti da oggetti connessi. Metterli in correlazione con i dati provenienti dagli altri sistemi permette di fare analisi sempre più accurate e approfondite e approcciare strategie data oriented

Tableau e l’AI a supporto degli utenti per la data visualization: Ask Data

Spesso che gli utenti non trovano risposte perché non sanno come porre le proprie domande di business. Usare il linguaggio naturale può aiutare in questo: Tableau Ask Data

Dataiku viene lanciato in AWS Marketplace

Tutti i clienti AWS potranno accedere a Dataiku e sfruttare la potenza dell’AI: infatti Dataiku adesso è disponibile sul marketplace AWS.

Vertica Eon Accelerator: il percorso più rapido per analisi unificate su cloud

Vertica si affaccia al mondo SaaS e al cloud con Vertica Eon Accelerator, il percorso più rapido per analisi unificate su cloud

Keplero: magazzini più efficienti con il picking automatizzato

Quando si parla di logistica non si può non fare riferimento al “magazzino” che si è evoluto con nuove tecnologie (IoT, RFID, dispositivi mobili) che ne hanno modificato e semplificato la gestione: tutto parte dal picking…

Keplero: big data e machine learning per la logistica

Oggi le aziende hanno a che fare con due grandi questioni: clienti sempre più esigenti e profitti in calo. La Digital Transformation diviene essenziale, e ML e BigData sono una reale opportunità