Intelligenza artificiale: le raccomandazioni del CSM

Il Consiglio Superiore della Magistratura, con delibera plenaria dell’8 ottobre 2025, ha reso le proprie Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia.

Il documento (in calce il testo integrale), che racchiude una chiara sintesi dell’attuale quadro normativo, sottolinea come, in questa fase, in presenza di una disciplina nazionale ancora in corso di formazione, e fino all’introduzione di sistemi conformi al regolamento europeo, deve essere escluso l’utilizzo non autorizzato di sistemi di IA nell’attività giudiziaria in senso stretto; resta però ferma la possibilità di sviluppare, in ambiente protetto e sperimentale sotto la supervisione congiunta del Ministero e del Consiglio, applicazioni anche in ambiti giudiziari, purché previa anonimizzazione e tracciabilità dei dati (come starebbe avvenendo, tra gli altri, nei tribunali di Bologna, Catania, Milano).

Secondo il Consiglio è necessario che la fase transitoria venga utilizzata come occasione di sperimentazione controllata e di crescita culturale, evitando che un divieto assoluto si traduca in un vuoto operativo e strategico: ciò esporrebbe la magistratura al rischio di trovarsi impreparata, priva delle necessarie competenze e dipendente da soluzioni esterne nel momento in cui entreranno in vigore le regole europee.

Per un uso corretto dell'IA, il Consiglio invita ad adottare una serie di cautele operative: 

  • la sovranità dei dati e delle informazioni: i dati e le informazioni generate non devono mai essere accessibili a terzi non autorizzati;
  • la protezione dei dati: nei sistemi IA non vanno immessi dati sensibili, riservati o soggetti a segreto investigativo, anche in forma indiretta. È importante, in particolare, considerare il rischio di reidentificazione dei dati, ancorché anonimizzati o pseudonimizzati, ad opera dell'IA attraverso l'incrocio di dataset. Occorre, in ogni caso, immettere nei sistemi di IA solo le informazioni necessarie;
  • la qualità dei dati: i risultati delle applicazioni di intelligenza artificiale devono essere vagliati per garantire che soddisfino adeguati standard in termini di equità ed è, pertanto, essenziale garantire l'affidabilità e la rappresentatività dei dati di input al fine di evitare output con risultati affetti da cd. Bias ovvero da discriminazioni alle persone in base a razza, religione, sesso, origine nazionale, età, disabilità, stato civile, affiliazione politica o orientamento sessuale;
  • la supervisione: ogni utilizzo dell'IA deve essere supervisionato dall' utente per verificare il rispetto delle normative sui diritti fondamentali dell'uomo, sul trattamento dei dati, del copyright e della sicurezza, oltre che per verificare la correttezza ed affidabilità dell'output. La supervisione / sorveglianza umana dovrà correggere eventuali risultati inattendibili, reinterpretarli o modificarli. Occorre sempre verificare di poter replicare autonomamente le conclusioni fornite dall'IA;
  • la responsabilità individuale: il magistrato è tenuto all'utilizzo consapevole e conforme degli strumenti IA a partire dall’obbligo di informazione e partecipazione alla formazione che sul tema sarà erogata.  
Altri articoli di 
Maria Santina Panarella
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram