AI ACT

Intelligenza artificiale, le big tech europee: “Rischi alti da iper-regolazione”

In una lettera inviata alle istituzioni Ue Digital Europe evidenzia i pericoli di norme troppo stringenti sui foundation model: “Ostacolo alla nascita di nuove startup”

Pubblicato il 24 Nov 2023

intelligenza artificiale 2

“Mentre l’AI Act si avvicina alle ultime settimane di negoziati, rimangono due punti critici. In primo luogo, come gestire i modelli di fondazione e l’intelligenza artificiale generica, la Gpai. In secondo luogo, il rischio di disallineamento con la normativa settoriale esistente”.

Con questa premessa, Digital Europe – la principale associazione di categoria che rappresenta le industrie di trasformazione digitale in Europa – scrive alle istituzioni Ue (SCARICA QUI LA LETTERA INTEGRALE) con l’intento di mettere in guardia l’Unione da un’eccessiva regolamentazione dei sistemi di intelligenza artificiale, i modelli di base, nelle prossime norme sull’IA, poiché ciò potrebbe “uccidere le start-up nascenti o farle uscire dalla regione”. L’appello giunge mentre i Paesi e i legislatori dell’Ue si avviano verso la fase finale dei negoziati sulle regole che potrebbero costituire un punto di riferimento per altri Paesi.

“Non obblighiamo le aziende ad andarsene”

“Affinché l’Europa diventi una potenza digitale globale, abbiamo bisogno di aziende in grado di guidare l’innovazione dell’intelligenza artificiale anche utilizzando modelli di base e Gpai – recita la lettera -. Come rappresentanti dell’industria digitale europea, vediamo un’enorme opportunità nei modelli di fondazione e nell’emergere di nuovi attori innovativi in questo spazio, molti dei quali nati qui in Europa. Non eliminiamoli prima che abbiano la possibilità di espandersi o costringiamoli ad andarsene”.

I dati della Commissione – fa poi presente Digital Europe –  mostrano che, “per una pmi di 50 dipendenti, immettere sul mercato un unico prodotto abilitato all’intelligenza artificiale potrebbe comportare costi di conformità di ben oltre 300.000 euro ai sensi della legge sull’intelligenza artificiale. È fondamentale ridurre il più possibile questo onere e consentire alle pmi di applicare la Gpai, i modelli di base e altre nuove tecnologie di intelligenza artificiale emergenti nelle loro innovazioni”.

“L’AI Act si concentri sugli usi ad alto rischio, non sulle tecnologie”

Questo è il motivo per cui sosteniamo le recenti iniziative degli Stati membri volte a limitare la portata dei modelli di fondazione agli standard di trasparenza. L’AI Act non deve regolamentare ogni nuova tecnologia e noi sosteniamo fermamente l’ambito di applicazione originale del regolamento incentrato sugli usi ad alto rischio, non su tecnologie specifiche. Inoltre, i settori chiave europei sono già fortemente regolamentati ed è imperativo chiarire ed eliminare eventuali sovrapposizioni e conflitti con la legislazione settoriale esistente, come il regolamento sui dispositivi medici.

Limitare la portata delle norme sull’AI ai requisiti di trasparenza

I firmatari, che hanno dichiarato che solo il 3% degli unicorni mondiali dell’AI proviene dall’Unione Europea, appoggiano una proposta congiunta di Francia, Germania e Italia di limitare la portata delle norme sull’AI per i modelli di fondazione ai requisiti di trasparenza. E affermano che l’attuale ampio campo di applicazione della bozza di norme sull’AI potrebbe scontrarsi con la legislazione esistente in alcuni settori come quello sanitario.

Le aziende hanno anche respinto gli appelli delle industrie creative affinché le norme sull’AI affrontino le questioni relative al copyright. “Il quadro globale dell’Ue per la protezione e l’applicazione del diritto d’autore contiene già disposizioni che possono aiutare ad affrontare le questioni relative al diritto d’autore legate all’AI, come l’esenzione per l’estrazione di testi e dati e le disposizioni corrispondenti”, hanno dichiarato.

I consigli di Digital Europe per la stesura dell’AI Act

In questo scenario, Digital Europe propone alle istituzioni Ue un vademecum per la stesura finale dell’AI Act.

L’approccio basato sul rischio deve rimanere al centro della legge sull’AI

“È sostenuto da un’ampia alleanza tra l’industria e la società civile ed è fondamentale per garantire che il quadro normativo sia neutrale dal punto di vista tecnologico e si concentri su casi d’uso veramente ad alto rischio: non dovrebbe considerare ad alto rischio tutto il software di intelligenza artificiale senza uno scopo previsto”.

Le carenze normative saranno aggravate a livello settoriale, come ad esempio nel settore sanitario

“Dovremmo allinearci meglio alla legislazione globale esistente sulla sicurezza dei prodotti dell’Ue per affrontare requisiti contrastanti e sovrapposizioni ed evitare interruzioni di quadri settoriali consolidati”.

Concentrarsi sulla condivisione delle informazioni, sulla cooperazione e sul supporto alla conformità 

“La legge sull’intelligenza artificiale dovrebbe consentire alle aziende di dettagliare le attività di collaborazione e di ripartire le responsabilità tra di loro. Il concetto di modelli di fondazione “molto capaci” o “ad alto impatto” non può essere misurato e non è a prova di futuro”.

Il quadro completo di tutela e applicazione del diritto d’autore dell’Ue contiene già disposizioni in merito

“Le leggi sul copyright “possono già aiutare ad affrontare le questioni relative al diritto d’autore legate all’intelligenza artificiale, come l’esenzione dal text e dal data mining e relative norme”. 

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4