Indietro

Big data

Data: 21 nov 2013

Per Big data si indente una collezione di dataset così grande e complessa che diventa difficile eseguire elaborazioni utilizzando normali strumenti di gestione di database o altri tradizionali applicazioni per la gestione e l'elaborazione di dati. Le sfide che si pongono, in presenza di simili collezioni di dataset, riguardano la cattura, l'archiviazione, la ricerca, la condivisione, il trasferimento, l'analisi e la visualizzazione dei dati.
La tendenza verso sempre più grandi insiemi di dati è dovuto alle informazioni aggiuntive che possono essere rilevate dall'analisi di insiemi di dati tra loro correlati come fossero un tutt'uno,  individuando  modalità di suddivisione o selezione tra grandi quantità di dati in modo da evidenziare correlazioni e frammenti di informazione pertinenti o rilevanti per una particolare richiesta, quali ad esempio la prevenzione di malattie, la lotta alla criminalità, la determinazione in tempo reale delle condizioni di traffico di una strada, ecc.  Nei Big data si pone anche l'esigenza di interrelazione di dati provenienti potenzialmente da fonti eterogenee, quindi non soltanto i database relazionali ma anche file di testo, file binari o altro.
I Big data sono difficili da gestire con l'utilizzo della maggior parte dei sistemi di gestione di database relazionali, programmi avanzati di elaborazione statistica e pacchetti di visualizzazione; si richiede invece l'utilizzo spinto di "software parallelo" in esecuzione su decine, centinaia o addirittura migliaia di server".
Non esistono valori dimensionali definiti; tuttavia con i Big data si può arrivare a parlare di Zetta-Byte, ovvero di una mole di Byte dell'ordine di 1021 (e quindi di un miliardo di Terabyte).                     
Anche le informazioni che le persone si scambiano sui social network posso confluire nei Big Data; parallelamente al loro sviluppo si è posta dunque la esigenza di regolamentarne le implicazioni sulla privacy.




Nessun commento. Vuoi essere il primo.