E-HEALTH

Tumori, scommessa big data per accelerare le cure

L’utilizzo massiccio degli analytics potrebbe consentire una mappatura più precisa della malattia e la realizzazione di terapie più efficaci

23 Lug 2015

Gregorio Cosentino, Cdti

health-140307153249

Chi di noi non ha, o non ha avuto, un parente, un amico o un conoscente colpito da un tumore? Le cifre presentate dall’Associazione italiana registri tumori (AIRTUM) riportano che ogni giorno in Italia si scoprono 1.000 nuovi casi di cancro, quindi si stima che nel nostro Paese vi siano nel corso dell’anno 366.000 nuove diagnosi di tumore. Certamente parliamo di tante persone che ogni anno affrontano questo terribile male, con tante vittime, una guerra. E in guerra, per vincere, si costruiscono le sinergie e le alleanze.

D’altronde proprio le OMICS SCIENCES, costituite da diverse aree di ricerca, Genomics, Proteomics, Metabolomics, etc sono le scienze in cui la biomedicina, la biotecnologia e l’ICT sono sinergiche e al servizio delle scienze biomediche. E per quanto riguarda la genomica, e grazie ad essa, si sono cominciati a identificare i meccanismi con cui i geni possono modificare i comportamenti delle cellule ed in particolare si è capito che certe “espressioni” sono tipiche di alcuni tumori o parte di essi. Agendo su alcuni geni, in modo diretto o indiretto, si riesce a cambiare la storia della malattia. E si potrà puntare ad una Medicina personalizzata, che richiede di sequenziare il genoma in un grande numero di pazienti e comparare i dati ottenuti.

Grazie al crollo del costo per la generazione della sequenza del DNA, come evidenziato in figura, si prevede che entro il 2025 un miliardo di persone nel mondo avrà fatto sequenziare il proprio genoma, producendo miliardi di gigabyte che dovranno essere acquisiti, immagazzinati, distribuiti e analizzati. Questo permetterà di creare una raccolta di informazioni cliniche accompagnata da dati genetici il più estesi possibile, elaborandoli con algoritmi che possano far emergere particolari combinazioni e sequenzialità. Mettendo a disposizione dei ricercatori il patrimonio di dati acquisiti sequenziando il genoma di pazienti già colpiti dal tumore, e applicando tecniche di ricerca operativa per definire l’algoritmo per estrarre informazioni dai dati raccolti, sarà possibile sviluppare nuove terapie e nuovi farmaci, personalizzate sui singoli casi.

Su questo tema, ho avuto la grande opportunità di partecipare ad una riunione del Consiglio Direttivo Scientifico di Alleanza contro il cancro, costituita nel 2002 a Roma, con sede presso la Direzione Generale della Ricerca Sanitaria del Ministero della Salute. Dell’associazione fanno parte gli Istituti di ricovero e cura a carattere scientifico ad indirizzo oncologico (IRCCS). “Lo scopo è quello di collaborazioni scientifiche tra gli IRCCS oncologici nazionali e esteri su specifici progetti comuni e ricerca clinica. In particolare si vuole realizzare e gestire una rete di informazione per promuovere e agevolare lo scambio di informazioni, di conoscenze, di dati e di risultati scientifici tra gli associati, e tra questi e soggetti terzi. Si spera in questo modo di elevare e uniformare il livello della ricerca italiana in campo oncologico, favorendo così il trasferimento dei suoi risultati alla pratica clinica quotidiana in tutto il Paese”.

Ne sono uscito ancora di più convinto della grande opportunità di avvalersi delle più avanzate tecnologie ICT, in questo ambito, in particolare, dei big data analytics. Sin dai suoi albori, l’informatica veniva vista come strumento in grado di migliorare le attività umane grazie alla sua capacità, rispetto all’uomo, di memorizzare molti più dati e operare con maggiore velocità sui dati stessi. Oggi le tecnologie digitali permettono di memorizzare su supporti sempre più miniaturizzati una mole enorme di dati, si sono diffuse unità di misura come PETA, milioni di miliardi di byte. Nello stesso tempo si sono sempre più diffuse tecnologie hardware e software che permettono di analizzare in dettaglio questi dati e di estrarne conoscenza. Siamo entrati nell’epoca dei Big Data Analytics. Che permettono di produrre, immagazzinare, elaborare sempre più velocemente quantità sempre più crescenti di dati strutturati e destrutturati, e trarne informazioni di valore. Questo potrà essere ottenuto utilizzando supercomputer, oppure cluster di computer, o cloud computing. E potenti soluzioni per lo storage. E strumenti di analytics sempre più avanzati. Grazie alla enorme potenza elaborativa resa oggi disponibile dai cosiddetti supercomputer o da cluster di computer, essi possono “imitare” la mente umana nell’implementare il processo seguito dall’uomo per prendere decisioni: osservare, interpretare, valutare e quindi prendere decisioni.

Big Data richiede non solo tanta potenza elaborativa, infatti l’aggettivo “big” è relativo sia alle dimensioni dei dati da gestire (il petabyte è ormai all’ordine del giorno) sia alla diversità dei dati che necessitano della stessa piattaforma in grado di estrarre informazioni (strutturati, semi-strutturati, non strutturati).

E in questo ambito si è ormai imposto come standard de facto HADOOP, un framework open source di Apache – HTTP Server – concepito per offrire supporto ad applicazioni distribuite, semplificando le operazioni di immagazzinamento e gestione di archivi di grandi dimensioni (big data). Utilizzabile anche su cluster costituiti da migliaia di nodi, assicurando affidabilità e disponibilità (fault tolerant). Si appoggia al file system distribuito HDFS e a MapReduce, innovativo pattern per l’elaborazione distribuita di elevate moli di dati. Supporto ideale per Analytics che rendono i computer sempre più intelligenti, per estrarre valore dalla enorme disponibilità di dati, siano essi in forma strutturata che destrutturata.

Infine, come Rete di collegamento, visto che i destinatari principali di questo progetto sono gli Istituti di ricerca e cura a carattere scientifico IRCCS, si potrebbe utilizzare la Rete GARR, che con i suoi 6.550 km in fibra ottica per la dorsale, 2.000 km per l’accesso tramite 70 punti di accesso, velocità da 10Gbps a 100 Gbps, è una piattaforma realmente in banda ultralarga abilitante per lo scambio di elevate quantità di dati, collegando strutture di calcolo e archiviazione.

Ecco realizzarsi una moderna e potente infrastruttura di cui Einstein andrebbe fiero. Ma per realizzarla, dopo attenta analisi e confronto con i direttori scientifici degli IRCCS, si potrebbe avviare un progetto coinvolgendo le migliori competenze medico, scientifiche e tecniche, dal Ministero della Salute agli IRCCS, dalle Università e Enti di Ricerca al Consiglio Nazionale delle Ricerche, dalle Fondazioni e organizzazioni no profit alle Case farmaceutiche e alle Aziende ICT.

Si tratta di una opportunità da non perdere. Il Ministero della Salute ne è consapevole, e sta valutando l’opportunità di coglierla.

Argomenti trattati

Approfondimenti

B
big data
C
cancro
G
gregorio cosentino

LinkedIn

Twitter

Whatsapp

Facebook

Link