l’iniziativa

AI in Sanità, Anitec-Assinform presenta alla Camera linee di indirizzo e decalogo



Indirizzo copiato

Un documento strategico di Anitec‑Assinform definisce principi e priorità per integrare l’intelligenza artificiale nella pratica clinica: governance, trasparenza algoritmica, interoperabilità e formazione continua al centro della roadmap

Pubblicato il 11 dic 2025



Screenshot 2025-12-11 alle 14.49.15

Presentato alla Camera dei deputati il documento “Linee di indirizzo per l’adozione dell’Intelligenza Artificiale nella relazione tra professionista sanitario e paziente”, accompagnato da un decalogo operativo. L’iniziativa, promossa da Anitec‑Assinform, nasce da un tavolo multidisciplinare che ha coinvolto istituzioni, clinici, imprese e associazioni di pazienti. L’obiettivo è chiaro: guidare l’integrazione dell’AI nella pratica clinica in modo consapevole, sicuro e trasparente, senza mai sostituire il ruolo del professionista.

Il progetto si inserisce in una fase avanzata della trasformazione digitale avviata con la Missione 6 Salute del Pnrr, che ha accelerato la digitalizzazione del Servizio Sanitario Nazionale attraverso strumenti come il Fascicolo Sanitario Elettronico 2.0, l’Ecosistema Dati Sanitari e la Piattaforma nazionale di telemedicina. Il documento è stato sottoscritto da alcune delle più rappresentative associazioni e società scientifiche del mondo sanitario: Fimp, Fnopi, Sid, Siiam, Simig e Snami, nonché da Confcooperative Sanità e da Cittadinanzattiva.

Un mercato in crescita, ma ancora limitato sull’AI

Secondo il rapporto “Il Digitale in Italia 2025”, il mercato pubblico della sanità digitale ha raggiunto 2,5 miliardi di euro nel 2024, ma solo 62,3 milioni sono stati investiti in soluzioni di intelligenza artificiale. Questo dato evidenzia un ampio margine di crescita per applicazioni che migliorino la qualità delle cure e l’efficienza dei processi. Le linee di indirizzo puntano proprio a colmare questo gap, indicando priorità come interoperabilità dei sistemi, qualità dei dati, riduzione della frammentazione digitale e percorsi di validazione delle tecnologie.

Trasparenza algoritmica e responsabilità clinica

Il documento sottolinea che la fiducia nell’AI passa da trasparenza e spiegabilità. Gli algoritmi devono essere verificabili e accompagnati da indicatori pratici di affidabilità, come punteggi di confidenza e avvisi su dati anomali. La responsabilità clinica resta in capo al professionista sanitario, che deve interpretare e contestualizzare le raccomandazioni, evitando l’automation bias. Il principio “human-in-the-loop” è imprescindibile: la tecnologia supporta, non sostituisce. Audit periodici e procedure di valutazione d’impatto proporzionate al rischio completano il quadro di garanzie richiesto dall’AI Act europeo, che classifica la sanità come settore ad alto rischio.

Il decalogo dell’Ai in Sanità: dieci principi per un’adozione sicura

Insieme al documento, è stato prodotto un Decalogo per l’adozione dell’IA nella relazione tra professionista sanitario e paziente, che sintetizza in dieci principi i capisaldi della proposta:

  • Centralità della persona e della relazione terapeutica. L’Ia deve liberare tempo per il contatto umano, riducendo il carico amministrativo e rafforzando la qualità della relazione tra professionista e paziente.
  • Ruolo del professionista come decisore ultimo. La tecnologia è un supporto, non un sostituto: il giudizio clinico resta in capo al medico, che deve supervisionare ogni decisione automatizzata.
  • Risultati spiegabili, verificabili e trasparenti. Gli algoritmi devono essere comprensibili e tracciabili, con indicatori di affidabilità che consentano al professionista di valutare la solidità delle raccomandazioni.
  • Governance condivisa e monitoraggio continuo. Serve un modello di governance partecipata, con tavoli multidisciplinari e audit periodici per garantire sicurezza e coerenza nell’uso delle soluzioni Ia.
  • Riduzione delle disuguaglianze territoriali. L’AI deve favorire l’accesso alle cure anche nelle aree interne e meno infrastrutturate, attraverso strumenti semplici e piattaforme interoperabili.
  • Promozione di una cultura del dato. I dati sanitari vanno considerati un bene comune: occorrono standard aperti, interoperabilità e condivisione sicura tra strutture e centri di ricerca.
  • Formazione continua per professionisti e cittadini. Percorsi di alfabetizzazione digitale e Ia literacy sono indispensabili per clinici, pazienti e sviluppatori, riducendo resistenze e favorendo fiducia.
  • Adozione di soluzioni verificate e sicure. Ogni tecnologia deve essere validata con modelli di Health Technology Assessment e testata in sandbox regolatorie prima dell’impiego su larga scala.
  • Tutela della privacy, del consenso e della sicurezza dei dati. Le architetture devono rispettare i principi di privacy by design e security by default, con processi chiari per la gestione del consenso informato.
  • Partecipazione e co-progettazione multi-stakeholder. L’innovazione deve nascere dal dialogo tra clinici, imprese, istituzioni e cittadini, per garantire soluzioni realmente utili e aderenti ai bisogni.

Ogni principio è pensato per garantire che l’AI in sanità diventi un alleato del clinico, capace di ridurre il carico amministrativo e migliorare l’organizzazione delle informazioni, senza mai compromettere la dimensione umana della cura.

Interoperabilità e patient summary: casi d’uso concreti

La frammentazione dei sistemi sanitari e la scarsa interoperabilità semantica sono oggi ostacoli critici. Le linee di indirizzo indicano la necessità di adottare standard aperti come HL7 Fhir e soluzioni “interoperability by design”. Un esempio concreto è il patient summary: un riassunto clinico essenziale che l’AI può generare in modo rapido e accurato, riducendo errori e tempi di compilazione. Questo strumento migliora la continuità assistenziale e restituisce tempo alla relazione di cura, obiettivo prioritario in un contesto di carenza di personale e aumento della domanda di servizi.

Formazione e fiducia: leve per la trasformazione

Ma la transizione digitale non è solo tecnologica, ma culturale. Perché l’AI sia accettata e utilizzata correttamente, serve investire in formazione multilivello: professionisti sanitari, pazienti e sviluppatori devono acquisire competenze e consapevolezza. Campagne di informazione pubblica, tutorial integrati nei software e sportelli di facilitazione digitale nelle Case della Comunità sono strumenti indicati per ridurre resistenze e favorire l’adozione. La comunicazione chiara sul ruolo dell’AI nel percorso di cura è essenziale per rafforzare la fiducia e prevenire timori infondati.

Privacy, sicurezza e consenso: cardini della fiducia

La protezione del dato sanitario è un pilastro. Le soluzioni devono essere progettate secondo i principi di privacy by design e security by default, con processi chiari per la raccolta del consenso e controlli granulari sugli accessi. Il documento propone modelli nazionali armonizzati per evitare disallineamenti tra regioni e promuovere un uso sicuro dei dati storici per ricerca e innovazione. La trasparenza è cruciale per aumentare la partecipazione dei cittadini e sfruttare appieno il potenziale del Fascicolo Sanitario Elettronico.

“L’esperienza ci insegna che la tecnologia realizza a pieno il suo potenziale quando è compresa, accettata e utilizzata in modo consapevole dai suoi utenti – dichiara Massimo Dal Checco, Presidente di Anitec-Assinform -. Per questo le linee di indirizzo che presentiamo oggi nascono da un dialogo continuo tra imprese, istituzioni e terze parti rappresentative di medici, professionisti sanitari e pazienti. L’AI può sostenere l’evoluzione del Servizio Sanitario Nazionale, ma solo se inserita in processi chiari, affidabili e realmente orientati ai bisogni delle persone e delle strutture.”

Per il compart

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x