Che cosa significa analizzare i Big Data?

Che cosa significa analizzare i Big Data?

Oggi significa occuparsi soprattutto di tecnologia di frontiera. Tuttavia il momento in cui la loro applicazione sarà accessibile a molti, anche nella vita quotidiana, si avvicina

Immagine
Apogeo Editore
23/02/2021 , tempo di lettura 4 minuti

Di Big Data si è cominciato a parlare seriamente fuori dai laboratori di ricerca e dentro le organizzazioni attorno al 2013, quando i progressi delle tecnologie informatiche hanno creato le condizioni per un cambiamento radicale delle possibilità di calcolo e analisi reperibili sul mercato.

3V per dati che un tempo sarebbero apparsi inaccessibili

Processori sempre più potenti, spazio di archiviazione sempre più elevato e software di nuova generazione hanno infatti consentito di trattare dati di un genere prima inaccessibile, caratterizzato dalle cosiddette 3V: il loro notevole Volume (grandi quantità), la loro alta Velocità di generazione (che richiede una velocità di elaborazione conseguente) e l’ampia Varietà nel loro formato (non più dati numerici incolonnati in tabelle ma testo, audio, video in forma variabile). Sono questi, i Big Data.

Questi dati speciali avevano e hanno bisogno di strumenti tecnologici e di metodi analitici altrettanto speciali. I Big Data non si analizzano sul computer assegnato dall’azienda o acquistato presso la grande distribuzione; con ogni probabilità serviranno hardware speciali e infrastrutture distribuite alle quali accedere tramite cloud.



Il web di oggi è già pieno di Big Data

Di che cosa stiamo parlando esattamente? Ecco qualche esempio di che cosa accade su Internet ogni sessanta secondi:

  • 1,3 milioni di persone accedono a Facebook

  • Google esaudisce, o almeno ci prova, 4,1 milioni di ricerche

  • YouTube mostra ai propri utenti 4,7 milioni di video

  • Quasi settecentomila persone scorrono immagini sul loro account Instagram

  • Vengono scaricate quattrocentomila app su smartphone iOS e Android

  • Vengono spesi online 1,1 milioni di dollari

I dati generati negli ultimi due anni dall’umanità sono equivalenti a quelli generati in tutta la storia dell’uomo dalla sua comparsa sulla Terra fino a due anni fa. In pratica ogni due anni dobbiamo fare i conti con il doppio dei dati a disposizione. Inoltre, si stima che di tutti questi dati venga effettivamente utilizzato solo lo 0,5 per cento: è da qui che nasce la disciplina dei Big Data. Per trarre il massimo beneficio dai dati li dobbiamo analizzare, e l’umanità ha praticamente appena cominciato.

Senza contare che fino a qui si parlato di dati generati dagli umani. Nei prossimi anni andranno aggiunti quelli derivanti da approssimativamente trenta miliardi di oggetti intelligenti, connessi alla rete a formare la cosiddetta Internet of Things (IoT, nella nostra lingua l’Internet delle cose), fatta di interscambi di informazione tra umani e macchine in qualsiasi combinazione. Anche le macchine hanno iniziato a parlare tra loro e il trend di lievitazione della produzione di dati continuerà.



La prossima rivoluzione per l’economia

I Big Data sono destinati a portarci grandi vantaggi in ogni settore, dalla salute all’istruzione all’efficienza energetica. Ma tutto quello che arriverà, essenzialmente, migliorerà la situazione attuale da un punto di vista economico, sia che riguardi maggiori guadagni, migliore gestione o minori spese. Per capire quali Big Data siano più allettanti di altri, aziende e organizzazioni li valutano secondo un modello detto ITMI, dalle iniziali di quattro proprietà essenziali: Informazione (caratteristiche specifiche dei dati), Tecnologia (richiesta per trattare i dati sotto esame), Metodi (per il loro efficace sfruttamento) e Impatto (in termini di creazione di valore). Un esempio: grazie ai Big Data, Netflix risparmia un miliardo di dollari l’anno.

Riguarda solo le aziende o le amministrazioni pubbliche? Assolutamente no. Se, come abbiamo già scritto, i Big Data propriamente detti riguardano grandezze che vanno oltre un interesse personale, vanno considerate due tendenze in atto: l’hardware a disposizione degli individui continua a migliorare le proprie prestazioni, e le ricadute software relativamente all’analisi di insiemi di dati fino a ieri non ortodossi saranno, e già iniziano a essere, a disposizione di tutti. Per non parlare della diffusione dei sistemi cloud, che consentono di delegare la pesantezza dell’elaborazione a sistemi come quelli di Google o Amazon, per controllarla a distanza con spesa modica e requisiti hardware del tutto ordinari.



Dai grandi progetti alla vita quotidiana

Faremo anche noi come Katie Bouman, ricercatrice del Massachusetts Institute of Technology che ha usato i Big Data per generare la prima immagine di un buco nero, lavorando sulla bellezza di cinque petabyte di informazione, ovvero cinque milioni di gigabyte provenienti da radiotelescopi sparsi in tutto il mondo?

Forse no, ma non importa. Le tecnologie utili per cominciare sono accessibili a chiunque – linguaggi di programmazione come Python e R, software per la visualizzazione dei dati come PowerBI o Tableau – e domani potranno essere applicate anche a utilizzi più pedestri, come l’osservazione del proprio benessere fisico nel tempo o l’analisi intelligente dei consumi energetici in famiglia.

Analizzare Big Data oggi significa occuparsi di tecnologia di frontiera. Tuttavia il momento in cui la loro applicazione sarà cosa di molti, e di tutti i giorni, si avvicina.