Dal 10 ottobre 2025 l’Italia entra in una nuova era per la sanità e le professioni intellettuali. Con l’entrata in vigore della Legge n. 132/2025, che recepisce i principi del Regolamento europeo sull’Intelligenza Artificiale (AI Act), diventa obbligatorio per ogni medico informare il paziente quando, nel corso della diagnosi o del trattamento, fa uso di un sistema di intelligenza artificiale. La norma introduce un principio chiave: trasparenza e responsabilità devono restare sempre umane, anche quando si utilizzano strumenti tecnologici di ultima generazione.

Intelligenza artificiale e consenso informato: che cosa prevede la nuova legge sull’AI

La legge stabilisce che l’intelligenza artificiale può essere impiegata solo come strumento di supporto all’attività professionale, mai come sostituto.
L’articolo 13, dedicato alle professioni intellettuali, stabilisce che l’AI deve restare “strumentale e di servizio” rispetto all’opera intellettuale del professionista.
In pratica, la tecnologia può aiutare nella lettura di un esame diagnostico, nella gestione dei dati clinici o nel suggerire ipotesi terapeutiche, ma la decisione finale spetta sempre al medico, che rimane l’unico responsabile della valutazione clinica.

Il principio alla base è antropocentrico: l’AI non deve sostituire l’uomo, ma ampliare la sua capacità di analisi e precisione, senza scalfire il rapporto fiduciario tra medico e paziente.

Intelligenza artificiale e consenso informato: il nuovo obbligo di informazione per i medici

La novità più importante introdotta dalla legge è l’obbligo per i medici di informare il paziente sull’uso di sistemi di intelligenza artificiale.
Il testo è chiaro: il professionista deve spiegare in modo comprensibile e trasparente se e come l’AI viene impiegata, con quali finalità e in quali fasi del percorso clinico.

Il paziente deve sapere, prima di dare il consenso, se il medico si avvale di un sistema intelligente per elaborare immagini diagnostiche, per analizzare parametri vitali o per calcolare il rischio di una determinata patologia.
L’informazione deve essere chiara, semplice e completa, senza tecnicismi, così da consentire un consenso davvero consapevole.

Il medico, quindi, non potrà più limitarsi a indicare che “usa un software di supporto”, ma dovrà spiegare in modo accessibile che tipo di AI viene impiegata, quale ruolo svolge nel processo decisionale e soprattutto che il giudizio clinico resta sempre umano.

Intelligenza artificiale e consenso informato: perché serve un consenso dedicato

Il consenso informato è da anni un pilastro della relazione medico-paziente. Con l’introduzione dell’AI nella pratica clinica, il legislatore ha stabilito che questo consenso deve essere rafforzato e aggiornato.
Ogni struttura sanitaria e ogni professionista è quindi tenuto a modificare i moduli già in uso, inserendo una clausola che richiami l’articolo 13 della Legge 132/2025.

La clausola deve spiegare, con linguaggio non tecnico, che:

  • l’AI viene utilizzata esclusivamente per attività di supporto e analisi;
  • la valutazione clinica finale è sempre affidata al medico;
  • il paziente è stato informato in modo chiaro e ha espresso un consenso consapevole.

In alternativa, può essere predisposto un modulo separato dedicato solo all’uso dell’intelligenza artificiale, da allegare al consenso informato tradizionale.
In ogni caso, è necessario che il paziente firmi il documento e che la comunicazione venga annotata nella cartella clinica, come prova dell’avvenuta informazione.

Intelligenza artificiale e consenso informato: come comunicare in modo chiaro

La legge invita i professionisti a utilizzare un linguaggio comprensibile anche per chi non ha competenze tecniche.
Spiegare in modo chiaro significa evitare parole come “algoritmo predittivo” o “machine learning” e sostituirle con esempi pratici.
Un medico potrà dire, ad esempio:
“Utilizzerò un programma informatico che analizza le immagini della radiografia e mi aiuta a individuare eventuali anomalie. La decisione finale sarà sempre mia.”

Questa trasparenza rafforza la fiducia reciproca e permette al paziente di sentirsi parte attiva del percorso di cura.

L’importanza di documentare tutto

Ogni volta che un medico utilizza un sistema di intelligenza artificiale, è consigliabile registrare nel fascicolo clinico la modalità di impiego e la comunicazione fornita al paziente.
Questo garantisce trasparenza, tutela la fiducia nel rapporto di cura e protegge il professionista da eventuali contestazioni.

La documentazione dovrebbe riportare:

  • la tipologia del sistema AI impiegato (per esempio, software diagnostico, analisi predittiva, triage digitale);
  • la finalità dell’utilizzo;
  • il momento in cui è stata fornita l’informazione e la firma del paziente.

Questi dettagli, oltre a rispettare la legge, costituiscono un elemento di buona pratica clinica e deontologica.

Tutela della privacy e responsabilità professionale

L’utilizzo di sistemi di intelligenza artificiale in sanità comporta anche il trattamento di dati sensibili.
Ogni medico deve assicurarsi che le informazioni cliniche vengano gestite nel rispetto del Regolamento europeo sulla protezione dei dati (GDPR) e delle norme nazionali.
Il paziente deve ricevere un’informativa specifica su:

  • modalità di trattamento dei dati;
  • eventuale condivisione con fornitori di tecnologia;
  • tempi di conservazione e misure di sicurezza adottate.

La legge ribadisce un principio fondamentale: anche quando si utilizza l’AI, la responsabilità delle decisioni resta sempre personale e diretta.
Il medico risponde in prima persona delle scelte terapeutiche e diagnostiche, indipendentemente dagli strumenti tecnologici impiegati.

Leggi tutto sul Consenso informato

Intelligenza artificiale e consenso informato: cosa deve fare il medico per essere in regola

Alla luce della nuova normativa, gli esperti suggeriscono alcuni passaggi pratici per adeguarsi fin da subito:

  1. Aggiornare il modulo di consenso informato inserendo una clausola dedicata all’AI o predisponendo un documento autonomo.
  2. Spiegare verbalmente al paziente l’uso della tecnologia, con esempi semplici e comprensibili.
  3. Raccogliere sempre la firma su un modulo che confermi la presa visione e il consenso.
  4. Archiviare la documentazione in modo tracciabile all’interno della cartella clinica.
  5. Verificare la conformità al GDPR e aggiornare le informative sulla privacy.

Seguire queste indicazioni non solo garantisce il rispetto della legge, ma migliora la qualità del rapporto medico-paziente e valorizza la trasparenza del lavoro sanitario.

Leggi tutto su Integrazione tra IA e medicina

Cosa succede se il medico non informa?

La mancata informazione sul ricorso all’AI può configurare una violazione del diritto al consenso informato e avere conseguenze sul piano civile e disciplinare.
In caso di controversia, l’assenza di una comunicazione chiara può essere considerata come mancato adempimento dell’obbligo professionale, con rischio di sanzioni o richieste di risarcimento.

Aggiornare la documentazione e mantenere un linguaggio trasparente non è solo un dovere giuridico, ma una tutela reciproca: garantisce sicurezza per il paziente e serenità per il medico.

FAQ – Domande frequenti

Il medico deve informare sempre, anche se usa l’AI solo per gestire dati?
Sì, se il sistema elabora informazioni cliniche o fornisce suggerimenti di tipo diagnostico o terapeutico.

Serve un consenso scritto o basta quello verbale?
Il consenso deve essere scritto e tracciabile, firmato dal paziente.

È possibile delegare la spiegazione al personale infermieristico?
No. L’obbligo informativo è personale e riguarda direttamente il professionista che utilizza l’AI.

L’AI può sostituire la diagnosi del medico?
No, mai. Può solo fornire un supporto tecnico e analitico. La decisione clinica resta di competenza esclusiva del medico.

Cosa succede se il paziente rifiuta l’uso dell’AI?
Il medico deve rispettare la volontà del paziente e, se possibile, fornire alternative basate su strumenti tradizionali.

Cosa deve contenere il nuovo consenso informato

SezioneContenuto richiesto
Identificazione del sistema AINome e tipo di tecnologia impiegata
Finalità dell’utilizzoAnalisi, supporto diagnostico o gestione dati
Ruolo del medicoDecisione finale e responsabilità personale
Informativa sulla privacyTrattamento dei dati e sicurezza informatica
Firma del pazienteConsenso esplicito e consapevole