Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

SCENARI

Il multicloud alla sfida sicurezza: machine learning chiave di volta

Cresce il numero di aziende che sceglie di processare i dati fuori non solo dai datacenter tradizionali, ma anche dal cloud come lo conosciamo adesso. Tecnologie 4.0 possono rispondere alle nuove esigenze di protezione e prevedere le minacce esterne

10 Mag 2019

Antonio Dini

Sono dieci anni che il vecchio paradigma del centro di calcolo fatto di server fisici è tramontato. Oggi i datacenter, i dati e gli utenti sono ovunque, legati a una nuvola con più facce, pubblica privata o ibrida che siano. Secondo Gartner nel 2020 il 75 per cento delle organizzazioni utilizzerà un modello It multi-cloud o ibrido e i tre quarti dei dati aziendali verranno generati e processati al di fuori non solo dei datacenter tradizionali, ma anche del cloud come lo conosciamo adesso. La difficoltà è capire cosa viene dopo e soprattutto come gestirlo.

«La sicurezza dei dati non può essere un’aggiunta a posteriori, una scelta per correggere decisioni già prese», dice Joel Stradling, research director di GlobalData. È uno dei 40 analisti e dirigenti di imprese del settore It di tutto il mondo riunito a Sitger, una località a 60 chilometri da Barcellona dove si sta concludendo il summit sul futuro delle tecnologie cloud e della sicurezza organizzato dalla britannica Netevents a cui CorCom ha partecipato.

«È difficile anche analizzare con chiarezza la filiera dei “cattivi” che cercano di effettuare cyberattacchi», dice Strandling. Cyberterrorismo, gruppi di hacker sponsorizzati dagli Stati, banali criminali, graffitari digitali. «La minaccia maggiore oggi – dice a CorCom Joe Baguley, CTO per l’Emea di VMware – è data dalle cosiddette “minacce persistenti avanzate”». Gli APT sono difficili da rilevare perché composte da una serie di attacchi nascosti e continui effettuati per un lungo periodo di tempo e pensati per essere rilevati il più tardi possibile, quando i danni sono ormai fatti.

Lo scenario è complesso: «Dobbiamo tornare alle definizioni di base per cercare di capire quali sono gli attori che minacciano le reti, con delle filiere criminali sempre più lunghe e articolate», nota Andrzej Kawalec, direttore per l’Europa della strategia e la tecnologia di Optiv Security, azienda nata a Denver dalla fusione di FishNet Security e Accuvant. 

Ma in quale direzione vanno i datacenter e i bisogni delle aziende? La tecnologia si orienta nella direzione di soluzioni multi-cloud. La complessità però sta creando un problema: «Ci sono centinaia di fornitori di soluzioni e tecnologie per la sicurezza, e questo è un problema», spiega Ray Ottey, esperto di cybersecurity per Verizon Enterprise Solutions. Ma quali sono allora le risposte possibili a queste sfide mentre i dati si spostano su piattaforme che devono essere in grado di performare in maniera trasversale ai singoli fornitori di tecnologie cloud, alle soluzioni interne e a una pluralità di tecnologie e livelli di complessità? «Molte soluzioni – dice a CorCom Roark Pollock, responsabile marketing di Ziften Technologies – sono sempre più legate all’intelligenza artificiale al machine learning, come ricette che secondo gli esperti consentono di intercettare un cyberattacco prima ancora che sia in grado di causare dei danni».

Secondo Rik Turner, principal analyst di Ovum, «Per i Ciso, i chief information security office, AI e ML stanno diventando le parole chiave in questo settore. Però pongono dei problemi importanti per quanto riguarda il modo con il quale scrivere gli algoritmi, addestrarli a riconoscere i pattern malevoli, a identificare le minacce». 

L’intelligenza artificiale è necessaria per cercare di domare la complessità: riuscire a cogliere dei segnali di violazioni o attacchi in corso richiede l’analisi concorrente di milioni di righe dei log, interpretando fenomeni apparentemente scollegati tra di loro e spesso molto distanti. Non è un problema che un singolo sistemista, per quanto tecnicamente dotato, possa risolvere da solo. E servirebbero centinaia di migliaia di persone altamente preparate per riuscire a tamponare almeno una parte rilevante del bisogno di sicurezza aziendale. Non è una via praticabile. Per risolvere il problema bisogna cominciare da un altro lato. 

«I centri di calcolo – dice Ksenia Efimova, senior research analyst di Idc – sono cambiati con lo scorrere del tempo. Siamo passati da una architettura basata sui mainframe a una basata sempre più su architetture software. Oggi i centri di calcolo sono sempre più veloci, facili da gestire sia in termini di carichi di lavoro che di funzionalità base come lo storage, il networking e la potenza di calcolo. E sempre più scalabili. È quindi l’intero modello che deve essere ripensato».

Qui entrano in gioco le richieste del business, la spinta che arriva dal mercato ad esempio sul fronte della Internet of Things. Ma bisogna pensare anche a un altro elemento: alle opportunità e ai rischi che vengono in questa già molto complessa formula dal fattore 5G: «Come gestire i carichi di lavoro – dice Ian Keene, vicepresidente per la ricerca di Gartner – sempre più grandi e a bassissima latenza che verranno generati dal 5G?».

Ci sono numerose soluzioni che stanno arrivando sul mercato. Mellanox, produttore di switch e router ad altissima velocità, è un attore chiave nella costruzione dell’automazione all’interno dei datacenter: «La sicurezza è la chiave, fa parte del progetto fin dall’inizio, non può essere aggiunta dopo. In questo avere una archittura innovativa e soprattutto open è un vantaggio molto grande», spiega a CorCom Kevin Deierling, CMO di Mellanox. E gli fa eco Philip Griffiths, responsabile delle partnership di NetFoundry per l’area Emea: «La chiave è consentire alle aziende di far funzionare le loro app ovunque e con qualunque dispositivo tramite connessioni Internet sicure, rapide da attivare, trasversali attreverso sistemi di providing differenti. In maniera economica, affidabile e sicura». Un obiettivo che si raggiunge, conclude Joe Baguley, con la conoscenza e l’analisi del funzionamento delle applicazioni aziendali. «Conoscerle bene, capire come funzionano e gestirle correttamente oggi è diventata la cosa più importante».

@RIPRODUZIONE RISERVATA

Articolo 1 di 5