Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

L’EVENTO

Intelligenza artificiale, Jourová: “Nel 2019 le linee guida UE”

Il commissario europeo alla Giustizia interviene alla tavola rotonda di chiusura del Security Summit 2018: “Task force di esperti al lavoro per normare anche IoT e robotics”. Faggioli (Clusit): “Italia ancora indietro: si investe in tecnologie mature e non su startup”

08 Giu 2018

Antonello Salerno

Non bisogna confondere la potenza di calcolo, o la capacità di analizzare grandi quantità di dati, con l’intelligenza e le capacità di interpretare le situazioni proprie degli esseri umani. Per questo la definizione “intelligenza artificiale” è inappropriata quando la riferiamo allo sviluppo di tecnologie predittive basate sugli analytics. Alla base di tutto c’è sempre un algoritmo programmato ab origine da un essere umano, che può sbagliare consapevolmente o inconsapevolmente, portando sulla strada sbagliata o “orientando” le scelte del calcolatore elettronico. Questo potrebbe avere conseguenze nefaste sull’utilizzo dell’AI in tutti i suoi campi d’applicazione, ma soprattutto in quelli dove sono in gioco le libertà e i diritti delle persone, dai principi della democrazia all’utilizzo di queste tecnologie in campo medico. Considerato questo scenario, c’è da porsi il problema se sia giusto lasciare il settore al proprio sviluppo spontaneo e senza regole, o se sia il caso di stabilire delle norme per evitare che, come recitano le previsioni più fosche, le tecnologie possano presto prendere il sopravvento sull’uomo, soppiantandolo in alcuni processi decisionali particolarmente delicati, come proprio nel campo della salute o, per fare un altro esempio, in campo militare.

Se ne è parlato alla tavola rotonda di chiusura della decima edizione del Security Summit, l’evento organizzato da Clusit e Astrea che si è svolto all’hotel Crown Plaza Roma St. Peters il 6 e 7 giugno.

Ad aprire la discussione è stata con un videomessaggio Věra Jourová, commissario europeo per la Giustizia, la tutela dei consumatori e l’uguaglianza di genere, che ha annunciato la creazione in seno alla Commissione europea di un gruppo di esperti di alto livello su intelligenza artificiale, IoT e robotica, che lavorerà a una bozza di linee guida utili per normare il settore prevista per il 2019: “Vedo chiaramente la complessità della questione – spiega Jourová  – L’Europa è impegnata a spingere i paesi membri ad accettare le sfide del mercato, ma nel rispetto della legalità e di tutti i principi fondamentali. La questione fondamentale sarà assicurare la neutralità dell’intelligenza artificiale, e fare in modo che sia trasparente, etica e non discriminatoria. Non abbiamo ancora tutte le risposte, ma stiamo raccogliendo interventi e pareri”.

Ma come è cambiata la percezione dell’intelligenza artificiale da quando se ne iniziò a parlare più di mezzo secolo fa? Il mutamento, secondo Fabio Roli, docente di machine learning all’università di Cagliari, è sostanziale: “Oggi l’intelligenza artificiale è molto diversa da come era stata immaginata nel 1955 – afferma – Non parliamo più, come si immaginava a quei tempi, di macchine in grado di simulare il ragionamento umano, ma di macchine che fanno un uso massiccio di dati per scoprire correlazioni, o ‘pattern’, dal loro confronto. Oggi contiamo su tecnologie che prima non esistevano, e abbiamo un’Ai data driven, basata non su ragionamenti logici ma su correlazioni statistiche”.

Si tratta però, secondo la visione di Gabriele Faggioli, presidente di Clusit, di tecnologie dalle grandi potenzialità ma non ancora mature dal punto divista dell’applicazione. Quanto all’Italia, “è ancora indietro – sottolinea Faggioli citando i dati degli osservatori del Politecnico di Milano – A dimostrarlo c’è il fatto che nel Paese non si investe abbastanza in ricerca e sviluppo, e non si sostengono le startup ai livelli di quanto accade, ad esempio, nei mercati più forti e strutturati come quelli asiatici e in particolare della Cina, o negli Stati Uniti. Inoltre la propensione delle aziende italiane è di adottare le tecnologie già pronte per lo sbarco sul mercato, come ad esempio le chatbot, senza sperimentare nuove possibilità”.

Ma quali sono i pericoli che potrebbero derivare dalle scelte “autonome” di un calcolatore elettronico superpotente? “Intelligenza è tirare fuori informazioni da dove non ce ne sono, non interpretare una immensa mole di informazioni – afferma Corrado Giustozzi, esperto di sicurezza cibernetica presso l’agenzia per l’Italia digitale ed Enisa – Il rischio è però, come dimostrano alcune simulazioni sugli scacchi, che una macchina che prevede sette mosse possa avere la meglio su un grande stratega umano. Le macchine fanno cose strabilianti ma non applicano intelligenza, su questi argomenti dovremmo lasciare meno spazio all’emotività: i veicoli a guida autonoma ad esempio non sono intelligenti, ma devono soltanto eseguire al meglio un compito”.

I rischi che però si corrono nel lasciare che macchine basate sull’Ai portino a termine alcuni compiti delicati sono grandi e ancora in gran parte da considerare, come spiega Andrea Zapparoli Manzoni, esperto di cybersecurity e tra gli autori del rapporto Clusit: “Le intelligenze artificiali si possono alterare intervenendo sugli algoritmi che le controllano – spiega – sono infatti basate su un software con sistemi operativi, database e connessioni. Questi software potranno essere attaccati come qualsiasi altra cosa, come le app e i Pc – spiega Manzoni – Le famiglie di attacchi sono essenzialmente due: una è l’evasione, trovare cioè il modo di disorientare le macchine, come nel caso delle persone che creano maschere o trucchi per ingannare i sistemi di riconoscimento facciale. E poi c’è il poisoning, l’avvelenamento del sistema, che si ottiene infilando nell’input dati che siano in grado di disturbare la macchina e deviare l’output. Se consideriamo che con il passare del tempo le persone si fideranno sempre di più di questi sistemi man mano che diventeranno mainstream, è chiaro che i danni potrebbero essere particolarmente gravi, soprattutto perché nel caso degli algoritmi quando qualcosa va storto è impossibile risalire alle cause”.

Sull’importanza di regolamentare il settore dell’intelligenza artificiale si sofferma anche Luigi Montuori, che il Garante per la privacy cura le relazioni e la cooperazione con gli organismi comunitari e altre istituzioni ed organizzazioni internazionali: “Mi piace partire dal presupposto che le regole devono essere viste come un aiuto alla crescita di certe tecnologie, quindi non per frenarne l’uso ma per agevolarlo: quando sono condivise e funzionano si genera un procedimento virtuoso, una consapevolezza dei diritti, e non si vive in un far west. Nel caso dell’intelligenza artificiale i diritti più minacciati sono quelli legati alla trasparenza, ad esempio sulla provenienza dei dati utilizzati dai calcolatori e sui processi utilizzati. Questo perché, come ha dimostrato il caso Cambridge Analytica, gli stessi dati possono essere utilizzati non soltanto per finalità commerciali, ma anche per incidere sulle libertà dell’individuo e sulla democrazia. Per questo è fondamentale la trasparenza, e il diritto di ognuno a poter controllare i propri dati, sapendo chi li vuole utilizzare e per quale fine”.

In questo quadro alcune situazioni possono però essere più pericolose di altre e possono prefigurare rischi più gravi, come nel caso delle applicazioni dell’intelligenza artificiale in ambito militare: “Ormai – spiega Manzoni – Si possono addestrare Ai per combattere contro altre Ai. Sarebbe una corsa agli armamenti esponenziale da cui gli umani potrebbero essere tagliati fuori molto velocemente, perché non sarebbero in grado di prendere decisioni in tempi utili rispetto alla velocità delle macchine. Non possiamo permetterci di imboccare questa strada, ciò che sarebbe utile sarebbe una moratoria assoluta su questo genere di tecnologie militari, come si tenta di fare per il nucleare”.

Infine la questione ha anche un aspetto giuridico su cui si sta ragionando e non si è arrivati a una soluzione: “C’è da stabilire i criteri per individuare chi è responsabile dell’intelligenza artificiale nel caso in cui una macchina guidata da queste tecnologie commetta un errore o – afferma Gabriele Faggioli – Emblematico può essere il caso delle Self driving car, quando qualcosa non funziona, o quando la sua intelligenza artificiale adotta una scelta che causa un danno”.

@RIPRODUZIONE RISERVATA
Antonello Salerno

Professionista dal 2000, dopo la laurea in Filologia italiana e il biennio 1998-2000 all'Ifg di Urbino. Ho iniziato a Italia Radio (gruppo Espresso-La Repubblica). Poi a ilNuovo.it, tra i primi quotidiani online nati in Italia, e a seguire da caposervizio in un'agenzia di stampa romana. Dopo 10 anni da ufficio stampa istituzionale sono tornato a scrivere, su CorCom, nel 2013. Mi muovo su tutti i campi dell'economia digitale, con un occhio di riguardo per cybersecurity, copyright-pirateria online e industria 4.0.

Articolo 1 di 5