Articolo originale dal blog Dataiku:  How to Choose a Data Science Use Case

 

I consigli di Dataiku: quando si sceglie un progetto di data science da implementare l’obiettivo finale deve essere quello di sfruttare al meglio i dati a disposizione per sostenere una decisione o un’azione aziendale. In termini più semplici, è necessario chiedersi: “A quale domanda sto cercando risposta?“. Per rispondere a questa domanda è necessario comunicare e collaborare con i diversi team aziendali per determinare eventuali problemi irrisolti o idee di cui l’azienda può beneficiare – l’inclusività è la chiave per identificare tutti i potenziali casi d’uso o le domande a cui serve rispondere utilizzando i dati. Una volta creato l’elenco completo delle potenziali domande puoi seguire i seguenti passi per scegliere il progetto di Data Science da implementare (con Dataiku).

Con decine di potenziali progetti, ma risorse limitate è importante, infatti, dare priorità ai progetti che hanno miglior rapporto costi/benefici, quelli che offrono sia un alto valore di business, sia alta probabilità di successo. Ecco i consigli suggeriti da Dataiku in 3 step.

 

I consigli di Dataiku: 3 step

Il processo di scelta di quale progetto di Data Science è il più adatto alla tua azienda può essere diviso in tre fasi. Ogni passo determina un aspetto importante che devi considerare nella decisione di quale progetto è più rilevante per te, quindi a quale dare la priorità. Puoi poi imitare questi stessi passi per la scelta dei progetti futuri.

 

1. Il business value

Questo primo aspetto coinvolge due tipi di valore: il valore in termini di persone e il valore in termini di capitale.

  • Chi beneficerà di questo progetto?
  • Quali bisogni soddisferà?
  • Quali sono i processi e le abitudini attuali?
  • Questo progetto aiuterà davvero lavoratori e collaboratori esterni?
  • A quale figura aziendale darà maggior supporto?

Queste domande sono cruciali, poiché i team di data science devono progettare il case tenendo in mente l’applicazione della soluzione da parte del pubblico. Pertanto, il punto di partenza dov’essere quello di definire il pubblico. Ancora una volta, ricorda che la collaborazione è la chiave – coloro che sviluppano progetti di IA hanno bisogno di lavorare a stretto contatto con gli stakeholder e gli esperti del settore per non limitarsi a scegliere secondo la propria opinione, ma capire veramente le esigenze dell’utente finale.

Per quanto riguarda il valore capitale è importante chiedersi: “In che modo questo use case migliorerà specificamente l’esperienza o i risultati? Come può essere misurato questo miglioramento?” I vari progetti, infatti, dovrebbero concentrarsi su opportunità con risultati aziendali reali e misurabili. Per tenere traccia e dimostrare il ROI, devi pensare a come misurare quantitativamente i progressi una volta che il progetto è stato implementato. Prima di fare questo, però, è necessario sapere cosa si sta cercando di analizzare esattamente. Comincia chiedendoti come questo progetto può aiutare la tua azienda in termini di profitto, a risparmiare denaro o a fare qualcosa che attualmente non sei in grado di fare.

Un’altra questione che dovresti porti è: “Perché usare l’IA per questo scopo è meglio dei processi esistenti?“: è importante che il progetto porti un concreto valore aggiunto su scala che possa giustificare lo sforzo dedicato al progetto. Non avviare un nuovo processo di Data Science solo per il gusto di usare l’IA. Osservare bene i processi esistenti e le loro metriche è la prima cosa da fare. Se il progetto di Data Science che hai selezionato non fornisce alcun valore aggiunto rispetto ai processi esistenti, torna alla lista dei potenziali progetti e scegline un altro.

 

2. Lo sforzo necessario

I progetti possono avere forme e dimensioni diverse. Alcuni richiederanno pochi giorni di lavoro, altri diversi mesi. In entrambi i casi, il tempo necessario per completarli deve essere giustificato, ottimizzato e ben organizzato.

Ma dove sono i dati? Esistono già? Potresti considerare di ridurre al minimo le dipendenze esterne, poiché questo non solo ridurrà la complessità, ma guiderà anche i team verso i primi progetti con un’alta velocità di valore, che è importante per ottenere una trazione organizzativa. Come già ripetuto precedentemente, la collaborazione tra il business, l’IT e i gruppi di Data Science sarà fondamentale, quindi coinvolgete subito e spesso le parti interessate nel design del progetto.

Quando dovrebbe essere consegnato un prototipo iniziale funzionante e, successivamente, una soluzione finale in produzione? Come in ogni progetto, la deadline della consegna dovrebbe essere sempre onnipresente. Al fine di costruire credibilità con gli stakeholder interni, è una buona pratica avere un prototipo della soluzione funzionante, anche se parziale, in un breve periodo di tempo piuttosto che puntare a una soluzione completa già al primo passaggio. Inoltre non devi dimenticare che la timeline del progetto dovrebbe includere non solo il tempo per lo sviluppo e una scadenza per un prototipo funzionante, ma anche scadenze per il deployment in produzione e per la seconda (o terza) versione, come da metodologia MVP.

 

3. La probabilità di successo (il rischio)

Quale vantaggio ottengo se il progetto ha successo? E quali sono le conseguenze se invece fallisce? Come per ogni progetto, anche  in questo caso va valutato il rischio. Mentre hai sicuramente già compreso i benefici ottenibili dal progetto, è importante anche essere consapevoli dei rischi che potrebbero verificarsi se dovesse succedere il peggio. È importante per il morale e la motivazione del team rimanere ottimisti, ma anche essere consapevoli che nella realtà i progetti di Data Science che non arrivano in produzione sono moltissimi, quasi l’87%.

Quindi, è importante valutare le conseguenze se le cose non dovessero andare come sperato e assicurarsi di scegliere un progetto che non avrà conseguenze troppo impattanti in caso di fallimento. Considera la portata del progetto, la disponibilità degli esperti in materia, le risorse analitiche a disposizione, sia umane, sia infrastrutturali, per identificare l’impatto che il progetto può avere sulla tua azienda.

 

A dimostrazione della validità di questo modo di procedere proposto da Dataiku vi invitiamo a scoprire il nostro BigData4Business Toolkit.

 

Hai bisogno di aiuto per trovare il tuo business use case? Scopri il nostro BigData4Business Toolkit

 

New call-to-action


Approfondimenti da BNext:

Data Governance: cosa può fare per aiutare il business

La Data Governance è di supporto per aumentare efficacia ed efficienza dei processi, aiuta a gestire la sicurezza, la privacy, ad ottimizzare le risorse e a garantire agli utenti trasparenza ed affidabilità

Dataiku e Data Exploration: chi è il miglior detective della serie “Scooby-doo”?

Dataiku e la data exploration, il primo passo per impostare i progetti nel modo più adatto è esplorare i dati e imparare a conoscerli.

Keplero: il ruolo dei Big Data per ottimizzare i processi aziendali

Generare Big Data non si traduce automaticamente in un vantaggio, è necessario raccoglierli e gestirli in modo adeguato per sfruttarli al meglio e diventare una Data Driven Enterprise in grado di sfruttare il proprio patrimonio informativo attraverso un sistema in cui le decisioni sono guidate dai dati e dagli analytics

denodo: tutto su cloud, con il supporto della Data Virtualization

Il cloud risolve problemi di gestione costi e risorse, ma aggiunge complessità infrastrutturale: è questo che più frena le aziende nella trasformazione digitale. Denodo è la soluzione di Data Virtualization scelta da BNova

Keplero: approccio data driven, Big Data & IoT

La maggior parte dei Big Data sono prodotti da oggetti connessi. Metterli in correlazione con i dati provenienti dagli altri sistemi permette di fare analisi sempre più accurate e approfondite e approcciare strategie data oriented

Tableau e l’AI a supporto degli utenti per la data visualization: Ask Data

Spesso che gli utenti non trovano risposte perché non sanno come porre le proprie domande di business. Usare il linguaggio naturale può aiutare in questo: Tableau Ask Data

Dataiku viene lanciato in AWS Marketplace

Tutti i clienti AWS potranno accedere a Dataiku e sfruttare la potenza dell’AI: infatti Dataiku adesso è disponibile sul marketplace AWS.

Vertica Eon Accelerator: il percorso più rapido per analisi unificate su cloud

Vertica si affaccia al mondo SaaS e al cloud con Vertica Eon Accelerator, il percorso più rapido per analisi unificate su cloud

Keplero: magazzini più efficienti con il picking automatizzato

Quando si parla di logistica non si può non fare riferimento al “magazzino” che si è evoluto con nuove tecnologie (IoT, RFID, dispositivi mobili) che ne hanno modificato e semplificato la gestione: tutto parte dal picking…

Prevenire l’abbandono dei clienti: le churn analysis in Niky

Le churn analysis sono analisi avanzate dei dati che non solo offrono una previsione della tendenza all’abbandono da parte dei clienti, ma consente di trarre efficaci strategie per migliorare la Customer eXperience.