Big data analytics: facciamo chiarezza

Per big data analytics si intende l’analisi di grandi masse di dati (Big Data) ossia tutte le tecnologie e le tecniche che consentono di raccogliere, gestire e trasformare i dati in informazioni comprensibili e utilizzabili in ambito aziendale, con il fine ultimo di prendere decisioni data-driven.

Che cosa sono i Big Data e le 3 V

Un modello vincente di lavoro sui Big Data prevede questi aspetti fondamentali:

  • Ingestion & Storage
  • Compute & Querying
  • Sharing & Governance

Inoltre, rispetto a un modello “classico” di analisi dei dati, in ambito Big Data l’aumento costante dei dati è ben descritto dal modello delle 3 V:

  • Velocità: con l’incessante crescita dell’Internet delle Cose, i flussi di dati delle aziende devono essere gestiti molto velocemente e in tempo pressoché reale;
  • Varietà: i dati sono disponibili in ogni tipologia di formato, basti pensare a transazioni finanziarie, video, e-mail o database classici;
  • Volume: grazie alle numerose piattaforme, oggi le organizzazioni hanno la possibilità di raccogliere i dati da diverse fonti come social network, video, IoT (dispositivi intelligenti), transazioni commerciali e dispositivi industriali, su scale dimensionali impensabili fino a qualche anno fa

Diffusione del Cloud Computing e Big Data.

Negli ultimi anni, al fine di permettere un notevole risparmio economico e di spazio, in ambito aziendale si è diffuso il Cloud Computing; tecnologia fortemente connessa ai temi della Big Data Analytics. Per Cloud Computing di intende la distribuzione tramite Internet dei servizi come database, software, intelligence, rete, risorse di archiviazione e servizi di calcolo. Sempre più aziende lo apprezzano, in quanto capace di offrire loro i seguenti benefici:

  • Taglio dei costi; poiché il Cloud Computing non richiede alcun acquisto di materiale hardware, che a sua volta porta a un rilevante consumo di elettricità, raffreddamento e gestione da parte di professionisti esperti;
  • Elevate prestazioni: i servizi di Cloud Computing più importanti assicurano elevate prestazioni, in quanto posizionati su una rete sicura e costantemente aggiornata;
  • Disponibilità dei dati a migliori condizioni di SLA;
  • Miglioramento della produttività dei team IT, i quali, non dovendo più dedicarsi all’assemblaggio e alla gestione dei data center locali; hanno la possibilità di investire le proprie risorse temporali nel raggiungimento degli obiettivi aziendali;
  • Possibilità di ridurre le risorse in maniera elastica e secondo le esigenze del momento;
  • Sicurezza da potenziali minacce ed elevata protezione dei dati;
  • Notevole affidabilità; oltre a incrementare la facilità d’uso e a ridurre i costi, il Cloud Computing si rivela una soluzione affidabile per ripristinare eventuali dati andati persi.
Big data

Fasi di un progetto Big Data analytics

Per mettere a punto un progetto di Big Data analytics, sono necessarie alcune importanti fasi, tra cui:

  • Data storage, ovvero la raccolta dei dati;
  • Data lake e data warehouse: spesso utilizzati come sinonimi, in realtà si tratta di due tipi di archiviazione molto diversi. Se nel primo caso i dati sono raccolti in modo grezzo e senza una precisa finalità, nel secondo tipo di storage i dati sono strutturati per essere utilizzati con un preciso scopo.
  • Data management: riguarda la gestione dei dati raccolti. Ovvero trasformare una quantità consistente di dati apparentemente informi in elementi utili e trasferibili in azioni finalizzate.

La gestione e l’organizzazione di un progetto di big data analytics è affidata oggi a figure quali il data scientist; un professionista con competenze informatiche e di business vision, capace di rendere fruibili e leggibili i Big Data.