Il Consiglio Superiore della Magistratura chiude all’uso dell’intelligenza artificiale nei provvedimenti giudiziari. Restano ammessi solo gli strumenti di supporto, ma con regole ferree.
L’uso dell’intelligenza artificiale nei tribunali italiani ha raggiunto un punto di svolta. Dopo mesi di dibattito e diversi episodi che hanno messo in luce errori e citazioni errate nelle motivazioni di sentenze, il Consiglio Superiore della Magistratura (CSM) ha deciso di intervenire con una linea netta. Durante il plenum dell’8 ottobre, l’organo di autogoverno dei magistrati ha approvato una delibera che vieta l’impiego di software come ChatGPT, Copilot, Gemini e altri strumenti generativi nella stesura delle sentenze e negli atti giudiziari.
Una scelta che nasce dall’esigenza di tutelare la correttezza e l’affidabilità delle decisioni, dopo che in alcuni ricorsi erano comparse frasi “astratte e inconferenti” generate proprio da sistemi automatizzati. Il provvedimento ribadisce un principio fondamentale: nel processo decisionale, il giudice deve restare l’unico responsabile della valutazione dei fatti e del diritto.
Le regole fissate dal CSM per l’uso dell’intelligenza artificiale
Secondo la delibera approvata, l’intelligenza artificiale può essere utilizzata solo come supporto alle attività preparatorie della decisione, mai come sostituto del giudice. Ciò significa che gli algoritmi potranno fornire sintesi, suggerimenti o analisi di dati, ma senza influire sul contenuto o sull’esito della sentenza. Il plenum ha stabilito che qualsiasi uso dell’IA dovrà rispettare i principi fondamentali del diritto processuale, garantendo trasparenza, tracciabilità e verificabilità di ogni operazione compiuta dal sistema.

La decisione del CSM si inserisce nel contesto dell’AI Act europeo (regolamento UE n. 1689/2024), che classifica i sistemi di IA destinati alla giustizia come “ad alto rischio”. Si tratta di una categoria che include tutti gli strumenti capaci di incidere sulle decisioni giudiziarie, imponendo standard di sicurezza e controllo particolarmente elevati.
Il legislatore italiano, con la legge 132/2025, ha recepito questa impostazione, vietando espressamente l’uso di strumenti automatizzati per interpretare la legge, valutare prove o decidere sui casi. L’articolo 15 della norma riserva queste funzioni esclusivamente al magistrato, impedendo qualsiasi forma di “giustizia predittiva”, ossia la possibilità per un software di anticipare l’esito di una causa sulla base di precedenti giurisprudenziali.
Gli unici ambiti in cui l’IA potrà continuare a operare saranno quelli amministrativi e di gestione interna, come la catalogazione dei documenti, la comunicazione tra uffici e l’organizzazione delle risorse. Anche in questi casi, però, il suo impiego dovrà rispettare limiti precisi e restare sotto il controllo umano.
Etica, trasparenza e il ruolo insostituibile del giudice
La posizione del CSM è perfettamente coerente con la Carta etica europea per l’uso dell’IA nei sistemi giudiziari, approvata nel 2018 dalla Commissione per l’efficienza della giustizia (CEPEJ). Il documento stabilisce che ogni magistrato deve poter verificare in ogni momento i dati e i criteri su cui si basa una decisione assistita da software.
Per il CSM, la trasparenza non è solo una garanzia formale, ma una condizione indispensabile per mantenere la fiducia dei cittadini nella giustizia. L’introduzione di algoritmi opachi o non verificabili rischierebbe infatti di compromettere il principio del giusto processo e la parità informativa tra le parti, due pilastri dello Stato di diritto.
Nel testo approvato, si sottolinea che solo un uso dell’IA conforme a questi principi può essere considerato compatibile con la funzione giurisdizionale. “Il giudice deve restare l’unico interprete della legge e dei fatti”, si legge nel documento elaborato dai relatori Marco Bisogni e Maria Vittoria Marchianò.
Il CSM riconosce comunque che l’IA può essere uno strumento utile se gestita con prudenza, ad esempio per semplificare i flussi di lavoro o ridurre i tempi di analisi dei fascicoli. Ma l’obiettivo non è velocizzare i processi a ogni costo: la priorità resta la qualità e la responsabilità delle decisioni.
Già in altri Paesi europei, come Francia e Germania, sono in corso sperimentazioni simili, ma tutte prevedono un controllo costante da parte dei giudici. L’Italia sceglie dunque la linea della cautela, spinta dalla consapevolezza che nessun algoritmo può sostituire la sensibilità e il ragionamento umano nel valutare le prove e interpretare la legge.
Con questa decisione, il CSM segna una linea di confine netta: la tecnologia potrà affiancare la giustizia, ma mai dettarne le regole o scriverne le sentenze.