Webinar Dataiku-Tableau

Insieme per un analisi dei dati a 360°

Di cosa abbiamo parlato nel WEBINAR

 

Laura Margara, Data Scientist di BNova, ci ha guidato in questo webinar alla scoperta di come Dataiku e Tableau, alimentino l’intero ciclo di vita dei dati: dalla data preparation agli insights, fino alla creazione e alla condivisione di uno storytelling anche per  l’utente business. Con l’aiuto di Claudia Fimelli, Sales Manager di Dataiku, abbiamo visto le novità di Dataiku 9, compreso il nuovo connettore verso Tableau. Il tutto supportato da una demo fatta da Emiliano Fuccio, Data Scientist di BNova, relativa al case “Prediction Fraud Detection: come individuare frodi o abusi nell’ambito delle prescrizioni farmaceutiche”.

Nell’ultima release di Dataiku, release 9, ci sono molte novità: il fil rouge di questa release si concentra sugli aspetti caratterizzanti della piattaforma stessa, il suo cuore analitico, ovvero i passaggi tecnici ed algoritmici del processo di Data Science. Le energie degli sviluppatori di Dataiku si sono concentrate da un lato su questi aspetti “interni”, dall’altro sull’integrazione con linguaggi e tool esterni, ad esempio è stato creato il plugin che connette direttamente Dataiku con Tableau, tool leader di mercato per la Data Visualization: questa connessione rappresentala volontà di offrire agli utilizzatori un servizio a 360gradi.

 

Questi i temi del webinar

  • – BNova e l’importanza della data science e data visualization  –  Laura Margara @BNova
  •  
  • – Dataiku DSS release 9.0: le novità e l’integrazione con Tableau – Claudia Fimelli @Dataiku
  •  
  • – Use case: fraud detection nel settore farmaceutico – Dataiku e Tableau – Emiliano Fuccio @BNova

LA PRESENTAZIONE DEL WEBINAR

webinar dataiku tableau pdf

GUARDA IL VIDEO DEL NOSTRO WEBINAR

I nostri partner

Approfondimenti da BNext:

Transfer learning: cos’è, i modelli e quando utilizzarlo

Lo sviluppo legato all’intelligenza artificiale coinvolge un’ampia varietà di metodi e tecniche, che possono valorizzare l’abilità di riutilizzare in maniera corretta ed efficiente il lavoro precedentemente svolto. Tale prospettiva viene in particolar modo enfatizzata...

Digital twin: cos’è e come funziona un gemello digitale

I digital twin sono una delle espressioni più affascinanti della trasformazione digitale, in particolare quella che fa riferimento al paradigma del 4.0, sia in ambito industriale che in altre applicazioni civili. Il concetto su cui si basa la tecnologia risalirebbe...

Data Lineage: come assicurarsi qualità e integrità dei dati

Tracciare i dati attraverso il loro ciclo di vita è un tema di valenza strategica. Perché una corretta Data Lineage ci garantisce l’accuratezza e l’integrità dei dati?

Deep learning: cos’è e quali le applicazioni 

Nell’ampio vocabolario dell’intelligenza artificiale c’è una tecnica sempre più diffusa che promette di affrontare i problemi più complessi: il deep learning. Grazie all’impiego delle reti neurali profonde, il deep learning consente di correlare i dati con una...

Machine learning e deep learning: quali le differenze

Machine learning (ML) e deep learning (DL) sono termini sempre più ricorrenti nel vocabolario tecnologico, oltre ad essere sempre più utilizzate nelle applicazioni enterprise e mainstream. Prima di entrare nel merito, per comprendere in cosa consistono e cosa le...

Dataiku: cosa c’è da sapere sulla nuova release

Le novità più importanti della release 11.0 e 11.1.0 spiegate dal nostro data scientist Emiliano Fuccio

ETL, il significato di Extract, Transform, Load: cos’è e a cosa serve

I dati vengono ormai generati con un flusso incessante, in ogni singolo istante, da miliardi di dispositivi interconnessi in tutto il mondo. Ma come è possibile estrarre valore da questa straordinaria risorsa digitale? Il paradigma Big Data, gli Advanced Analytics e...

Data ingestion: significato, esempi e vantaggi 

La data ingestion è una tecnologia molto importante nell’aiutare le organizzazioni a gestire un volume di dati sempre più ingente e complesso, anche per via della sua straordinaria eterogeneità. Se ben implementata, la data ingestion può infatti generare un...

Le differenze tra intelligenza artificiale debole e forte

L’intelligenza artificiale è una tecnologia ormai entrata stabilmente a far parte della nostra quotidianità, dai semplici assistenti domestici ai più complessi sistemi di robotica industriale. Nella sua definizione più ampia, l’intelligenza artificiale è un termine...

Cos’è la Data Quality e le metriche di riferimento

La Data Quality è una misura della condizione dei dati basata su fattori quali accuratezza, completezza, coerenza, affidabilità e se sono aggiornati. La misurazione dei livelli di qualità dei dati può aiutare le organizzazioni a identificare gli errori nei dati che...