Vertica annuncia una nuova soluzione in ambito analytics che promette grandi cambiamenti: Vertica Eon Accelerator. Si tratta di un’evoluzione importante per Vertica, non solo per l’approccio verso Vertica-as-a-service, ma anche per la collaborazione verso i nuovi approcci architetturali cloud, in particolare verso AWS.

 

Vertica Eon Accelerator: al via l’early access

Vertica Eon Accelerator rappresenta in questo senso il percorso più rapido verso l’analisi unificata: si tratta di un servizio sviluppato da Vertica per consentire e promuovere analytics-as-a-service su un’architettura cloud-native in esecuzione nel proprio account AWS. Si, nel proprio account AWS, ed è questo aspetto che rende Vertica Eon Accelerator diverso dalla maggior parte delle offerte SaaS sul mercato oggi. Vertica Eon Accelerator infatti non prevede markup aggiuntivi, ma viene installato direttamente sul account AWS del cliente, questo permette di non variare gli accordi economici già esistenti, ma al contempo di automatizzare la gestione dello spazio cloud destinato a Vertica.

Grazie alle sue caratteristiche Vertica Eon Accelerator offre la possibilità di fare analisi in modo scalabile e ad alte prestazioni. La presenza di funzionalità di machine learning native garantiscono a ciascuna organizzazione il livello più appropriato di risorse, di gestione e controllo per ogni use case analitico, grazie all’architettura nativa per il cloud e alla separazione della parte computazionale da quella di storage basata su S3 Object Storage di AWS.

Il programma di accesso anticipato di Vertica Eon Accelerator è disponibile gratuitamente e include l’onboarding personalizzato e il coinvolgimento continuo del team di Vertica che come sua abitudine prende molto seriamente la parte legata allo sviluppo e alla formazione per cercare di rispondere alle alte aspettative dei suoi utenti.

Highlights e benefits di vertica eon accelerator

  • – Built on Vertica in Eon Mode – Applica tutte le principali funzionalità di analisi avanzata e machine learning su un’architettura comprovata, altamente scalabile e performante, ottimizzata per il cloud che separa il calcolo dallo storage.
  • – Minutes to provision, scaling to business needs – Vertica automatizza la parte di amministrazione del cloud data warehouse, in modo che l’utente possa concentrarsi sulle analitiche ed il machine learning
  • – Runs in customer-provided AWS account –  mantiene tutti i dati e le risorse di calcolo al sicuro sul cloud mantenendo i prezzi flessibili e stabiliti con AWS
  • – Onboarding service with Vertica experts – come membro dell’Early Acces Program, gli esperti di Vertica ti offrono un’esperienza di onboarding personalizzata per assicurarti di ottenere il massimo dalla tua esperienza di analisi, incluso il collegamento tra account, monitoraggio e gli aggiornamenti continui

 

Per maggiori approfondimenti consulta l’articolo: Vertica Announces Early Access of Vertica Eon Accelerator

 

Approfondimenti da BNext:

Deep learning: cos’è e quali le applicazioni 

Nell’ampio vocabolario dell’intelligenza artificiale c’è una tecnica sempre più diffusa che promette di affrontare i problemi più complessi: il deep learning. Grazie all’impiego delle reti neurali profonde, il deep learning consente di correlare i dati con una...

Machine learning e deep learning: quali le differenze

Machine learning (ML) e deep learning (DL) sono termini sempre più ricorrenti nel vocabolario tecnologico, oltre ad essere sempre più utilizzate nelle applicazioni enterprise e mainstream. Prima di entrare nel merito, per comprendere in cosa consistono e cosa le...

Dataiku: cosa c’è da sapere sulla nuova release

Le novità più importanti della release 11.0 e 11.1.0 spiegate dal nostro data scientist Emiliano Fuccio

ETL, il significato di Extract, Transform, Load: cos’è e a cosa serve

I dati vengono ormai generati con un flusso incessante, in ogni singolo istante, da miliardi di dispositivi interconnessi in tutto il mondo. Ma come è possibile estrarre valore da questa straordinaria risorsa digitale? Il paradigma Big Data, gli Advanced Analytics e...

Data ingestion: significato, esempi e vantaggi 

La data ingestion è una tecnologia molto importante nell’aiutare le organizzazioni a gestire un volume di dati sempre più ingente e complesso, anche per via della sua straordinaria eterogeneità. Se ben implementata, la data ingestion può infatti generare un...

Le differenze tra intelligenza artificiale debole e forte

L’intelligenza artificiale è una tecnologia ormai entrata stabilmente a far parte della nostra quotidianità, dai semplici assistenti domestici ai più complessi sistemi di robotica industriale. Nella sua definizione più ampia, l’intelligenza artificiale è un termine...

Cos’è la Data Quality e le metriche di riferimento

La Data Quality è una misura della condizione dei dati basata su fattori quali accuratezza, completezza, coerenza, affidabilità e se sono aggiornati. La misurazione dei livelli di qualità dei dati può aiutare le organizzazioni a identificare gli errori nei dati che...

OLAP e OLTP: cosa sono e quali le differenze 

La trasformazione digitale ha portato le aziende ad essere sempre più data-driven, orientando i loro processi e le loro decisioni nella prospettiva delle operazioni e delle analisi di quantità e varietà di dati sempre più importanti. È infatti ormai decisamente...

Data as a Service: cos’è a cosa serve

I modelli a servizi disponibili in cloud consentono di avere nuove opzioni di utilizzo dei dati, molto più flessibili e scalabili rispetto ai sistemi di gestione tradizionali. È il caso del Data as a Service (Daas), una soluzione strategica in grado di semplificare...

Data Science Lifecycle, le 6 (+1) fasi del processo

La Data Science è un campo di studi interdisciplinare il cui obiettivo finale è estrarre informazione e conoscenza utili da dati strutturati o non strutturati. Non esiste un framework unico e universalmente condivido per definire i processi di Data Science, tuttavia, dal punto di vista tecnico lo standard KDD è quello a cui ci si ispira maggiormente, perché indica l’intero processo di ricerca di nuova conoscenza dai dati.