Intelligenza artificiale, l'Etsi lavora a uno standard mondiale. Ma c'è da sciogliere la questione "etica" - CorCom

CYBERSECURITY

Intelligenza artificiale, l’Etsi lavora a uno standard mondiale. Ma c’è da sciogliere la questione “etica”

Pubblicato il primo rapporto sulla tutela di sistemi e soluzioni. Si lavora a un’ontologia delle minacce e anche a esplorare le questioni legate ai pregiudizi e alle diversità di approccio nei vari Paesi

27 Gen 2021

Veronica Balocco

Primo rapporto di gruppo per Etsi – Securing artificial intelligence industry specification group (Etsi Sai Isg), prima iniziativa di standardizzazione dedicata alla protezione dell’Intelligenza artificiale (Ai). Il documento affronta il problema della tutela di sistemi e soluzioni basati sull’Ai, con un focus sull’apprendimento automatico, e delle sfide relative a riservatezza, integrità e disponibilità in ogni fase del ciclo di vita del machine learning. Sottolinea inoltre alcune delle sfide più ampie dei sistemi di intelligenza artificiale, inclusi pregiudizi (bias), etica e capacità di essere spiegati, descrivendo diversi vettori di attacco, nonché casi di utilizzo e situazioni del mondo reale.

“Ci sono molte discussioni sull’etica dell’intelligenza artificiale, ma nessuna sugli standard per la sua protezione, che tuttavia stanno diventando fondamentali per garantire la sicurezza delle reti automatizzate – afferma Alex Leadbeater, presidente di Etsi Sai Isg -.  Questo primo rapporto Etsi ha lo scopo di fornire una definizione completa delle sfide affrontate quando si protegge l’Ai. Parallelamente, stiamo lavorando su un’ontologia delle minacce, su come proteggere una catena di fornitura di dati di intelligenza artificiale e su come testarla”.

Necessarie grandi quantità di dati e potenza di elaborazione

Per identificare i problemi coinvolti nella protezione dell’intelligenza artificiale, il primo passo è stato definire l’Ai. Per il gruppo Etsi, l’intelligenza artificiale è la capacità di un sistema di gestire rappresentazioni, sia esplicite che implicite, e procedure per eseguire compiti che sarebbero considerati intelligenti se eseguiti da un essere umano. Questa definizione rappresenta ancora un ampio spettro di possibilità. Tuttavia solo un insieme limitato di tecnologie fondate sull’evoluzione delle tecniche di apprendimento automatico e di apprendimento profondo sta diventando fattibile: la ragione sta nell’ampia disponibilità di dati e potenza di elaborazione necessari per addestrare e implementare tali tecnologie.

WEBINAR
15 Dicembre 2021 - 14:30
Spesa IT: come valutare i costi tecnologici, calcolare i rischi e ottimizzare gli investimenti?
Amministrazione/Finanza/Controllo
Finanza/Assicurazioni

Numerosi approcci all’apprendimento automatico sono di uso comune: l‘apprendimento supervisionato, non supervisionato, semi-supervisionato e di rinforzo. All’interno di questi paradigmi, potrebbe essere utilizzata una grande varietà di strutture modello. Uno degli approcci più comuni è l’uso di reti neurali profonde, in cui l’apprendimento viene effettuato su una serie di livelli gerarchici che imitano il comportamento del cervello umano. Ma possono essere utilizzate anche tecniche di formazione come l’apprendimento contraddittorio, in cui l’insieme di addestramento contiene non solo campioni che riflettono i risultati desiderati, ma anche campioni contraddittori, che hanno lo scopo di sfidare o interrompere il comportamento previsto.

Sempre più numerosi i casi di utilizzo

Sebbene il termine “intelligenza artificiale” abbia avuto origine in una conferenza negli anni ’50 al Dartmouth college di Hannover, nel New Hampshire, i casi di utilizzo nella vita reale descritti nel rapporto Etsi mostrano quanto si sia evoluta da allora. Tali casi includono attacchi di blocco degli annunci, offuscamento del malware, deepfake, riproduzione della scrittura a mano, della voce umana e delle conversazioni.

@RIPRODUZIONE RISERVATA