L'INTERVISTA

Intelligenza artificiale, Basili: “L’Italia non è pronta per la sfida”

Il docente di Informatica dell’Università di Roma Tor Vergata: “Il Paese paga un sistema della formazione ancora troppo conservativo e imprese poco propense ad investire in un settore ad alto rischio”. Ma l’AI Act della Ue può contribuire ad imprimere un colpo di acceleratore

28 Ott 2022

Federica Meta

Giornalista

intelligenza-artificiale_278524988

L’Italia rischia di perdere il treno dell’intelligenza artificiale a causa di un sistema della formazione “conservativo” e poco votato all’interdisciplinarietà, ma anche per la carenza di imprese disposte a rischiare in un ambito fortemente innovativo. Ne è convinto Roberto Basili, docente di Informatica dell’Università di Roma Tor Vergata, che analizza le potenzialità dell’AI ma anche i limiti e le sfide regolatorie ed etiche.

Professore, come può contribuire l’AI allo sviluppo economico del Paese?

Il capitale fornito dai dati è una risorsa e l’Italia, caratterizzata da una società avanzata, matura e relativamente ricca, può vantare una grande quantità di info di interesse che la collocano ai vertici mondiali per la complessità relazionale, la maturità giuridica e tecnico-scientifica delle sue strutture sociali. Tali dati, però, costituiscono un asset spesso inespresso: basti pensare ai dati del dominio sanitario, che ancora non sono oggetto dell’auspicabile condivisione, riuso e valorizzazione all’interno dei processi di AI, ma che potrebbero aiutare il miglioramento delle prassi mediche. Quale ruolo più efficiente per una tecnologia quale l’AI se non il potere di abilitare modelli scientifici di migliore qualità, processi di business moderni e servizi più utili per le comunità e la cittadinanza? L’Italia è presidio scientifico dell’AI da molti anni, contribuendo allo sviluppo mondiale della ricerca in questo campo dagli anni ’80, con una comunità di ricerca all’avanguardia. In qualità di membro della Associazione Italiana per l’Intelligenza Artificiale (AIxIA)1, che esiste dal 1990, mi onora la possibilità di cooperare con colleghi di diverse discipline e settori della Informatica, dell’Ingegneria, delle discipline filosofiche e linguistiche, che l’associazione federa.

L’AI pone sfide regolatorie, politiche ma anche etiche mai viste prima…

L’AI è una tecnologia “diversa” nel senso profondo del termine. Si occupa di problemi non “risolti” con modelli esaustivi, come ad esempio nel campo medico, dove la decisione del professionista non è facilmente sintetizzabile in modo “matematico”, in quanto frutto di saperi molti ampi e diversificati spesso non quantificabili; ma si occupa soprattutto di problemi, come ad esempio lo stato fisico e biologico di un paziente, mai completamente osservabili. Ecco, chiediamo all’AI di occuparsi di un sostegno a quei processi di decision-making in cui il ruolo del soggetto intelligente, resta cruciale. Questa soggettività è infatti ineludibile e confronta il ricercatore di AI con la necessità di valutare attentamente la qualità delle decisioni “esperte” proposte dall’algoritmo in gioco e, quindi, di certificarne l’attendibilità tecnica.  Allo stesso tempo, però, all’aumentare del grado di complessità a cui i sistemi lavorano-  mi riferisco all’aumentare del livello concettuale raggiunto dai sistemi –  gli impatti delle decisioni sono certamente più ampi e riguardano fenomeni critici rispetto a scelte sociali, politiche ed etiche, come, ad esempio, la salute delle persone. Infine, l’autonomia crescente dei sistemi intelligenti e la loro pervasiva capacità di incidere sulla documentazione delle attività umane e sulla comunicazione interpersonale possono diventare critici. Ad esempio, i motori di ricerca con i loro suggerimenti, ci spingono verso alcune e non tutte le conoscenze, scegliendo per noi. Tale ruolo agisce sulla qualità e la varietà di informazione che diviene accessibile, ed incide quindi nella formazione delle idee, delle conoscenze e delle credenze delle comunità, e quindi dei diversi sistemi sociali in gioco.

E quindi?

Le considerazioni di sopra spingono a guardare alle tecnologie di AI con attenzione in modo da verificarne l’attendibilità, la consistenza con i valori e la sostenibilità all’interno del quadro delle dinamiche sociali. Tale stimolo alle dimensioni giuridiche, etiche e politiche ha come controparte altrettanto rilevante, la necessaria consapevolezza tecnica che le comunità debbono raggiungere affinché il dibattito, il confronto e le decisioni conseguenti siano feconde nel tempo.

La Ue sta lavorando a un AI Act: come impatterà sulla diffusione della tecnologia?

L’AI Act è un documento a cui scienziati e autorità di tutta Europa hanno contribuito. Notevole è anche il contributo delle “Ethics Guidelines For Trustworthy AI”3, edito dalla Commissione Europea nel 2019, e focalizzato proprio sulla regolamentazione all’uso delle tecnologie e delle applicazioni di AI. In esso sono stabiliti tre principi fondamentali che caratterizzano una tecnologia AI che sia veramente affidabile: la liceità, cioè la fedeltà alle norme ed ai Regolamenti, la eticità, che conferma il rispetto dei valori e dei principi etici ed infine la robustezza, sia tecnica che sociale, in grado cioè di conformarsi ai vincoli delle comunità che ne recepiscono l’uso. Ritengo questi principi molto importanti per gli aspetti prima citati, cioè la caratteristica della complessità e della pervasività dell’uso sociale dell’AI.

L’Italia è pronta a vincere la sfida dell’intelligenza artificiale?

Temo di no, e per diversi motivi. Anzitutto la disciplina dell’AI in questione nasce dalla convergenza di saperi eterogenei che il sistema educativo, amministrativo e professionale legato alla formazione ed alla Ricerca fa fatica a favorire. L’interdisciplinarietà è spesso perseguita solo a parole, ma nei fatti, cioè nelle comunità specifiche in cui i saperi evolvono e si istituzionalizzano, non è sufficientemente favorita. L’Italia è particolarmente conservativa a questo riguardo, a partire dalla marcata distinzione, spesso frutto di forti tradizioni classiche ma anche di prospettive sbagliate ed anacronistiche, tra la cultura tecnico-scientifica e quella umanistica. Altro fattore determinante per la difficile penetrazione dell’AI è il suo forte carattere di innovatività, nei campi in cui si applica, che la mette sempre al confine tra ciò che è consolidato, anche scientificamente, e ciò che manca di un modello risolutivo o di paradigmi formali definitivi.

 Quali sono le conseguenze di questo approccio conservativo?

L’adozione delle tecnologie di AI è fortemente legata alla capacità di esplorare soluzioni non disponibili, processo che si conforma più alla ricerca che alla industrializzazione o ai processi economici. Di conseguenza, senza una forte propensione al rischio ed all’investimento, le istituzioni, le industrie e le comunità non potranno far progredire la disciplina e la sua penetrazione. Il fatto che in Italia i margini anche economici per l’innovazione siano limitati da condizioni che il sistema pubblico e industriale si porta dal passato non costituisce certo un contesto favorevole. Infine, l’innovazione interdisciplinare dell’AI produce processi nuovi in ambito sociale, istituzionale e industriale. E richiede la co-azione di ampie comunità di attori, dagli utilizzatori finali agli esperti, dai tecnici alle organizzazioni preposte alla governance logistica e giuridica. Ma questa necessità è spesso in contrasto con il carattere conservativo che gli equilibri sociali ed economici in questo nostro Paese tendono a  privilegiare. Sebbene le nuove generazioni siano più aperte al cambiamento, il sistema ha ancora molta strada da fare sia riguardo ai saperi legati all’AI, che sono relativamente poco diffusi, sia verso la propensione al cambiamento sollecitata dall’AI.

Questa sua analisi è stato un po’ il focus dell’evento Future Sight per celebrare i 40 anni di Tor Vergata…

Alimentare il dibattito su queste tecnologie è utile perché consente di aumentare la consapevolezza circa la loro diffusione, sui rischi ma anche sui benefici. Ecco perché nel giorno di apertura del Future Sight 40, evento celebrativo dei 40 anni di Fondazione del nostro Ateneo di Tor Vergata, con il professor Fabio Ciotti abbiamo organizzato un dibattito dal titolo “Intelligenza artificiale: epistemologia, etica, politica e società”, coinvolgendo ricercatori della Associazione Italiana AIxIA, in particolare Chiara Ghidini della Fondazione Bruno Kessler di Trento e vice-Presidente della AIxIA, e filosofi, come Teresa Numerico, della Università di Roma Tre. I temi trattati hanno dimostrato come aprire al dibattito tra saperi diversi, in tematiche di frontiera come l’AI, dia senso al nostro ruolo di studiosi, ma è al contempo fecondo per la nostra crescita professionale. Solo tramite tali evoluzioni le comunità potranno aumentare la consapevolezza, in senso complessivo, del fenomeno AI, ed apprezzarne in modo equilibrato gli effetti. L’AI non è un patrimonio di alcune poche industrie che ne hanno già sviluppato diversi strumenti ma è un insieme di saperi in grado di incidere sui processi e rendere migliore la nostra società. Per questo conoscerla meglio è non solo interessante, ma anche strumento di realizzazione sociale che i giovani non debbono farsi sfuggire per preparare il mondo di domani.

@RIPRODUZIONE RISERVATA

Articolo 1 di 5