Data scientist, l’italiana Expleo sul podio dell’Onu - CorCom

BEST PRACTICE

Data scientist, l’italiana Expleo sul podio dell’Onu

La compagine nazionale capitanata dall’azienda guidata da Mariotti si aggiudica, in team con l’Università del Salento, l’hackaton “Data for Good” dell’ International Computing Centre delle Nazioni Unite. Ad Agrigento la data factory che darà lavoro a 60 giovani esperti

19 Mar 2021

Mila Fiordalisi

Direttore

È la squadra italiana composta da Expleo Italia in collaborazione con l’Università del Salento ad essersi aggiudicata la medaglia d’oro all’hackaton “Data for Good” organizzato dall’International Computing Centre delle Nazioni Unite per lo sviluppo di un modello predittivo dei flussi migratori.

La competizione – che ha visto in sfida 140 studenti provenienti da 54 università di 13 Paesi a livello mondiale – è stata dunque vinta dal team italiano e in particolare dall’azienda, guidata da Livio Mariotti, che a ottobre 2020, ha  tenuto a battesimo ad Agrigento la propria Data factory nazionale, una vera e propria fabbrica dei dati che a regime darà lavoro oltre 60 Data Scientist, diventando una delle realtà economiche più rilevanti della Sicilia.

“Puntiamo a sfruttare l’immenso patrimonio degli open data nazionali, per realizzare analisi di profondità, cruscotti per i decisori pubblici, analisi predittive ed intelligenza artificiale per elaborare servizi avanzati rivolti a supportare la trasformazione digitale della pubblica amministrazione e del tessuto produttivo nazionale”, spiega a CorCom il ceo Mariotti il quale annuncia che nella sede di Lecce, a partire dal 2022, saranno accolti altri 40 esperti di Data Management portando l’organico a 100 professionisti del dato.

“In tutti i processi che abilitano la gestione di big data vi sono sostanzialmente tre fasi: la fase di raccolta, quella di analisi e la rappresentazione. Una volta ottenuti i dati, gli stessi devono essere letti ed interpretati, ordinati ed armonizzati, attraverso tecniche che possono variare a seconda della tipologia di informazione gestita e dello scopo d’indagine ed utilizzo che sui dati ci si è prefissi. L’obiettivo è quello di valorizzare al massimo grado possibile la base di conoscenza ottenuta in fase di raccolta, collegando informazioni apparentemente distanti, scartando informazioni ridondanti, raccordando in modo univoco informazioni polverizzate in centinaia di migliaia – a volte centinaia di milioni, se non miliardi – di stringhe di oggetti informativi che, se presi singolarmente, non hanno alcun valore o significato”, spiega il manager a CorCom aggiungendo che saranno messe in campo tecnologie ed algoritmi di Machine Learning, Deep Learning e Intelligenza Artificiale.

Co-finanziato dal Mise e dalla Regione Siciliana attraverso gli “Accordi per l’Innovazione”, il progetto Data factory nei suoi primi 5 mesi di attività, “ha già prodotto importanti risultati”, annuncia Mariotti a CorCom.

“Dalle prime analisi effettuate per gli scopi di ricerca del progetto, ad esempio attraverso i dati acquisiti dal portale opendata di NoiPA messo a disposizione dal Mef, per l’esposizione della conoscenza derivante dalla gestione del personale della Pubblica Amministrazione emerge, tra gli altri, un significativo dato ed in evidente controtendenza: nella fascia di età tra 18 e 24 anni, le retribuzioni medie delle donne assunte nella PA superano quelle degli uomini. Ed è stato possibile anche evidenziare la presenza di una folta serie di Enti che impiegano unicamente dipendenti over 50 con una lampante ed impellente problematica di turn-over. Tutte informazioni di estrema utilità per il decisore pubblico in particolare nel contesto di rinnovamento della macchina pubblica e trasformazione digitale del Paese”.

È stato, inoltre, sviluppato un sistema di correlazione tra i bilanci delle Pubbliche Amministrazioni, esposti dalla Ragioneria Generale dello Stato, e le procedure di gara pubbliche, di competenza dell’Associazione Nazionale Anti Corruzione. “Il cruscotto permette ad ogni cittadino di conoscere nel dettaglio come, concretamente, il comune in cui vive ha acquisito lavori, beni e servizi per realizzare ogni singola attività indicata nelle voci di bilancio, programma per programma, missione per missione, Ente per Ente, fino alla singola procedura pubblica”.

E la correlazione di deep analytics e interpretazione semantica di un testo, sono stati i fattori abilitanti per lo sviluppo di strumenti di intelligenza artificiale, quali strumenti di Natural Language Query Resolving vocale (Alexa-like). “Nelle prossime settimane, a partire dalla prima di maggio – annuncia ancora Mariotti a CorCom –  la data factory sarà impegnata in un’attività di diffusione della conoscenza, attraverso una serie di video su Youtube che approfondiranno i diversi aspetti dell’orizzonte progettuale, dal valore del dato nei diversi settori della Pubblica Amministrazione, all’utilizzo dello stesso in scenari di business, passando attraverso le tecniche e le tecnologie abilitanti rispetto agli scopi di progetto”.

@RIPRODUZIONE RISERVATA

Articolo 1 di 5