Google ha presentato un sistema per archiviare grandi quantità di dati in rete, aprendo la potenzialità ai suoi clienti di fare analisi dei big data via cloud. L’offerta si chiama Google Cloud BigTable ed è basta “su una tecnologia – dice Tom Kershaw, responsabile per Google della piattaforma – su una tecnologia che stiamo usando da nni, per questo non si tratta tecnicamente di una nuova tecnologia”. Google la utilizza per Google Search ma anche per Gmail e per Google Analitycs.
Tra i potenziali utilizzi: accumulazione di dati da sensori nell’Internet of Things, servizi finanziari, telco, analisi di pubblicità, modelli di analisi nel settore biomedico e dell’energia, e in altri settori industriali basati sul consumo di grandi quantità di dati.
Cloud Bigtable è bsasato su un archivio NoSQL, usa api di Apache HBase che permette l’implementazione e l’archiviazione dei dati attraverso più server.
HBase offre una buona con i software Hadoop, il servizio open source per lavorare con set di dati molto grandi. E poi con i servizi Google BigQuery e Cloud Dataflow.
Secondo Google, il database NoSQL implementato su Cloud Bigtable è molto più veloce di altre versioni di NoSQL come HBase e Cassandra NoSQL.
I servizi di BigTable sono gestiti internamente da Google, che si occupa anche dei backup, crittografia e sicurezza.