SAS FORUM

Icardi (Sas): “Diventeremo la community dei big data”

Big Data Bang: questo il titolo dell’edizione 2014 del Sas Forum dedicato a delineare le strategie per fronteggiare l'”ondata” in arrivo. Ma non è solo una questione di quantità. Il numero uno della See Region: “Dobbiamo trovare il modo di estrarre con maggiore efficacia le informazioni giuste”

Pubblicato il 15 Apr 2014

icardi-120509181056

Chiamatelo paradosso. Ma sembra proprio che chi si occupa di Big data e analytics in Italia sia improvvisamente passato dal ruolo di precursore di un fenomeno ancora difficile da comprendere – e soprattutto da far comprendere – a quello di inseguitore di una dinamica che sta letteralmente travolgendo tutti i mercati. È il caso di Sas, che fino a un paio d’anni fa dava quasi l’impressione d’essere un predicatore nel deserto. Cosa predicava? La valenza strategica della raccolta, dell’elaborazione e dell’analisi dei dati rispetto del miglioramento delle performance aziendali, alla riduzione dei costi e all’aumento del valore, non solo per le grandi organizzazioni, ma per ogni tipo di business. Stamani all’annuale appuntamento del Sas Forum a Milano, si è invece avuta la sensazione che lo stesso Marco Icardi, numero uno della SEE Region del colosso informatico, fosse un po’ impensierito dalla complessità crescente del sistema. Il titolo alla convention 2014 è d’altra parte emblematico: Big Data Bang. “Senza perdere di vista la semplicità, adesso dobbiamo trovare il modo di estrarre con sempre maggiore efficacia le informazioni giuste all’interno dell’enorme mole di dati a disposizione”, ha spiegato Icardi.

Che il tema stia diventando, a causa della crescita esponenziale degli strumenti che producono e immettono dati in Rete, incredibilmente vasto lo dimostra non solo l’estrema eterogeneità delle case history presentate nella sessione plenaria del forum, ma anche l’annuncio del cosiddetto Smart program. Si tratta di una nuova offerta rivolta alle piccole e medie imprese che sarà veicolata esclusivamente dai partner e che dovrebbe garantire l’accesso agli strumenti di analytics in tempi brevi, con procedure semplici e a costi contenuti. Inutile dire che la logica sarà anche quella del software as service.

Lungi dall’affermare che la cultura del dato sia diffusa e acquisita nel tessuto produttivo tricolore, i relatori che si sono alternati sul palco hanno piuttosto testimoniato la versatilità delle applicazioni analitiche e la loro ricaduta pratica sia sul piano organizzativo sia su quello della relazione con il mercato. Del resto, l’intento della manifestazione era chiaro: “Vogliamo essere un agente culturale degli analytics, e per questo intendiamo trasformarci in una community, un network in cui diverse esperienze e ispirazioni possano giocare un ruolo attivo nell’evoluzione dell’approccio al dato”, ha detto Icardi.

Claudio Contini, presidente e Ad di Telecom Italia Digital Solutions, per esempio, ha sintetizzato in tre step il modo in cui si è evoluto il suo personale approccio al dato: “Se prima ci serviva per la gestione delle operation, in un secondo momento abbiamo cominciato a utilizzare gli analytics per mettere a fuoco le proposte commerciali. Oggi invece gli analytics stessi rappresentano il mercato e la possibilità di competere creando valore grazie alla conoscenza dei clienti. Le soluzioni non sono più abilitatori dell’offerta, ma diventano l’offerta. Il mondo si dividerà presto tra chi le usa e chi no. E chi non le usa sparirà dal mercato”.

Ma anche chi li usa quotidianamente ha il suo bel da fare: Alberto Di Meglio è CTO del Cern Openlab di Ginevra, e sostiene che nei prossimi dieci anni la quantità di informazioni che il suo centro di ricerca dovrà processare riguarderà “numeri che ancora non sappiamo in che modo riusciremo a gestire. Diventerà sempre più fondamentale la figura del Data scientist, un professionista in grado di distribuire e raccontare i dati in modo che gli scienziati, ma non solo, li possano capire e applicare per ottenere risultati concreti”.

Daniele Tognaccini, direttore del Centro di ricerca scientifica Milan Lab, ha spiegato che gli analytics si sono rivelati la chiave del successo della corretta preparazione atletica dei calciatori che ha seguito a partire dal 2002, consentendo di trasformare indicazioni teoriche indifferenziate in programmi specifici disegnati sulle caratteristiche dei singoli atleti. “Il monitoraggio continuo ci ha permesso di raccogliere i dati prodotti da un milione di test, ed è sulla base di questi risultati che abbiamo realizzato una app rivolta al mercato di massa”.

Non sono mancate le case history dal mondo bancario: sia Intesa che Unicredit hanno raccontato le proprie best practice raggiunte in ambito di reportistica e comunicazione interna. Mentre Fabio Sbianchi, Ad e fondatore di Octo Telematics (l’azienda italiana che ha creato nel 2002 il mercato delle black box installate sulle autovetture) ha condiviso la sua vision, secondo la quale presto le compagnie assicurative saranno in grado di creare offerte e polizze su misura in base al comportamento al volante dei loro clienti. La sfida è riuscire a imbrigliare un sistema che globalmente raccoglie dati di guida su 86 mila km ogni secondo. Tomas Blazquez, head of Ict application development and maintenance di Enel group, ha infine mostrato la crescita rapidissima che ha registrato la multinazionale italiana delle utility nel contenimento delle frodi e nello sfruttamento della sensoristica. Per Blazquez “la cultura dell’innovazione va associata a un nuovo modo di pensare: la realtà non può più essere percepita solo dalla prospettiva di chi guida le aziende, e le strategie vanno delineata partendo dall’analisi dei dati raccolti”.

A completare il ciclo degli interventi, Odoardo Ambroso, managing director di DoxaCrm, e Federico Capeci, Ad di Duepuntozero Research, che hanno illustrato gli scenari che aprono gli analytics rispetto alla ricerca qualitativa al servizio del marketing. Capeci ha sottolineato la grande opportunità offerta dagli strumenti di Sas per misurare l’influenza, o resonance, che ha un marchio on line, tenendo conto dei diversi parametri che permettono a un’azienda di rilevare e monetizzare il valore delle relazioni con e tra i consumatori. “L’analisi delle reti sociali evidenzia il modo in cui le persone sono collegate tra loro, qual è l’intensità delle relazioni e quali gli stili comunicativi”, ha concluso Ambroso. “Questo ci consente di modulare i sistemi di comunicazione dei brand plasmandoli sui comportamenti dei clienti e adattandoli al quotidiano scorrere della vita delle persone. L’ideale sarebbe riuscire a creare alleanze strategiche o consorzi tra aziende che operano negli stessi settori per condividere i dati e affrontare insieme il cosiddetto customer journey”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati