STRATEGIE

Intelligenza artificiale “umano-centrica”, l’Europa detta le linee guida

Algoritmi sicuri, controllo dati in mano agli utenti, accountability dei sistemi fra i requisiti richiesti dalla Commissione Ue a industria e ricerca. Via a giugno alla fase pilota. Ansip: “Dimensione etica cruciale per le prossime sfide”

Pubblicato il 08 Apr 2019

L. O.

artificiale-intelligenza-AI-robotica

Algoritmi sicuri e affidabili, controllo dei dati in mano agli utenti, accountability dei sistemi. Sono alcuni dei principi cui dovranno attenersi industria e ricerca per mettere a punto soluzioni di Intelligenza artificiale in grado di superare le sfide etiche del futuro.

Lo dice la Commissione europea che annuncia una serie di linee guida e pianifica per giugno l’apertura di una fase pilota basata sulle indicazioni del gruppo di esperti di alto livello nominati a giugno 2018. L’Europa punta a spingere investimenti pubblici e privati ​​sulla AI di almeno 20 miliardi l’anno nel prossimo decennio.

La AI può aiutare a individuare  frodi e minacce alla cybersicurezza – spiega la Commissione – migliorare la gestione dei rischi sanitari e affrontare i cambiamenti climatici, “ma può anche essere usata per supportare pratiche commerciali senza scrupoli e governi autoritari”.

“La dimensione etica dell’IA non è un accessorio – avverte il vp per il mercato unico digitale Andrus Ansip -. È solo con la fiducia che la nostra società può trarre pieno beneficio dalle tecnologie. Un’Intelligenza artificiale etica può diventare un vantaggio competitivo per l’Europa: puntiamo a una AI umanocentrica”.

“Ora disponiamo delle fondamenta grazie all’impegno di molti stakeholder comprese imprese, mondo accademico e società civile – dice la commissaria per l’economia e la società digitale Mariya Gabriel -. Applicheremo questi requisiti alla pratica”.

Già entro giugno aziende, amministrazioni pubbliche e organizzazioni possono iscriversi alla fase pilota (i dettagli saranno illustrati domani nel corso del terzo Digital Day di Bruxelles). Dopo di che gli esperti esamineranno i risultati e la Commissione deciderà i prossimi passi.

Fra gli altri requisiti richiesti una AI in grado di rispettare tutte le leggi e i regolamenti, sistemi orientati al raggiungimento di una società equa senza limitare o fuorviare l’autonomia umana, algoritmi siano sicuri, affidabili e robusti, controllo dei dati in mano ai cittadini, tracciabilità dei sistemi, adesione a principi di non discriminazione ed equità, accountability dei meccanismi.

Entro l’autunno 2019 la Commissione avvierà una serie di network di centri di eccellenza sulla ricerca nel settore.

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articolo 1 di 3