Il giudice sarà sostituito dall'AI?
- advocacylitigation
- 10 nov
- Tempo di lettura: 6 min
Aggiornamento: 3 ore fa
Articolo a cura di Sebastiano Cormaio
Revisionato da Gloria Morandi
Introduzione
“Il progresso tecnologico è come un’ascia nelle mani di un criminale patologico.”
Così nel 1931 Albert Einstein parlava del progresso tecnologico in un’intervista in The New York Times Magazine e, nonostante questa metafora risalga a quasi 100 anni fa, oggi appare più attuale che mai. Einstein caratterizzava l’innovazione come qualcosa che deve imprescindibilmente essere accompagnata da coscienza morale e responsabilità sociale. E se al tempo a costituire la metaforica “ascia” era il progresso tecnico accelerato applicato all’ambito politico e militare, oggi si parla della proliferazione tra cittadini e istituzioni dell’utilizzo dell’intelligenza artificiale, che ha sollevato interrogativi circa il suo rispetto della Costituzione Italiana.
Il bilanciamento tra evoluzione della società da una parte e rispetto della Costituzione dall’altra è uno dei punti cardine attorno a cui ruota il nostro ordinamento, nonché una delle questioni per cui l’apparato della giustizia italiano più si adopera: non appena la società comincia a far uso di un nuovo strumento o in generale progredisce dal punto di vista tecnologico, il diritto deve adattarsi: ubi societas, ibi ius.
Un tentativo di regolamentazione etica e giuridica europea è stato realizzato con l’Artificial Intelligence Act, che ha previsto una classificazione dei sistemi di intelligenza artificiale basata sul rischio.
Conflitto tra l'utilizzo dell'AI e la Costituzione
L’adozione di sistemi di intelligenza artificiale e il loro utilizzo nella quotidianità tocca in modo diretto alcuni pilastri della Costituzione italiana. In particolare, risultano allarmantile potenziali questioni di incompatibilità con gli artt. 21 e 48 della Costituzione Italiana. Essi sanciscono rispettivamente la libertà di espressione ed il diritto di voto dei cittadini.
Per ciò che concerne l’art. 21 Cost, la libertà di espressione può essere compromessa dal fatto che la censura sia operata tramite un algoritmo non trasparente, potenzialmente addestrabile per eliminare contenuti che non dovrebbero aver motivo di essere censurati: ciò influenza in modo decisivo l’accesso all’informazione e la qualità del dibattito pubblico.
Il confine tra la tutela dalla disinformazione e la censura preventiva è molto sottile. Certo, la creazione di un sistema che eviti la diffusione di disinformazione e fake news ha un grande valore, ma il vantaggio che porta questo tipo di provvedimento non è a parer mio in alcun modo paragonabile alla potenziale compromissione della libera espressione.
Una democrazia costituzionale deve assicurare che le regole di moderazione siano trasparenti, contestabili e sottoposte a controllo umano, preservando il pluralismo e la libertà di pensiero: per questo, l’utilizzo di un algoritmo non trasparente non garantisce la neutralità del modus operandi, e quindi si trova potenzialmente in contrasto con la libertà di espressione sancita dall’art. 21 Cost.
Invece, con riguardo all’art. 48 Cost, il rischio potrebbe essere quello di promuovere una campagna elettorale attraverso algoritmi non neutrali.
In questo periodo storico, ad esempio, a livello propagandistico i social media giocano un ruolo di primaria importanza: tra le fasce di popolazione più giovane (e non solo) l’informazione sovente passa dai social, e conseguentemente anche la formazione del pensiero politico. Per ciò, utilizzare un parametro non trasparente nell’algoritmo social del pubblico potrebbe portare ad uno squilibrio che infici la libertà del voto: l’algoritmo di apprendimento automatico su cui si basano i social media propone specifici contenuti per ogni utente, basandosi su tutta una serie di parametri dalla scarsa trasparenza. Questo può portare al rischio che, ad esempio, ad un determinato soggetto con un pensiero politico X vengano assiduamente proposti contenuti in linea con l’idea politica Y, opposta alla sua, con l’obiettivo di influenzarne l’opinione. Questo costituirebbe uno strumento di manipolazione dell’opinione pubblica.
Questo sistema, peraltro, potrebbe essere oggetto di lucro per una piattaforma social: si immagini lo scenario in cui il governo di uno stato si impegnasse a promuovere l’utilizzo di una piattaforma “in cambio” di propaganda occulta svolta attraverso, appunto, algoritmi non trasparenti.
Conflitto fra l'utilizzo dell'AI nel contesto giudiziario e la giustizia predittiva
Nel contesto giudiziario, l’uso dell’AI oscilla tra supporto alla decisione e rischi per equità e diritti. Di seguito i principali contesti in cui l’AI è stata utilizzata in ambito giudiziario in Italia e nel mondo:
• In Italia, il CSM (delibera plenaria 8 ottobre 2025) ha fissato raccomandazioni che consentono di utilizzare l’intelligenza artificiale esclusivamente per compiti preparatori e ausiliari, senza sostituire l’autonomia decisionale del magistrato e nel rispetto dei principi processuali e delle garanzie dei diritti fondamentali.
• A livello globale, il caso COMPAS negli USA ha acceso il dibattito su accuratezza e bias2dei sistemi predittivi nel penale: l’inchiesta ProPublica ha denunciato disparità razziali, cui sono seguite repliche metodologiche e studi di revisione, mostrando quanto sia controversa la “giustizia predittiva”.
• In Cina, l’iniziativa delle “Smart Courts” integra strumenti di IA per snellire procedimenti e ricerche giurisprudenziali, ma pone interrogativi sulla trasparenza e sul controllo del potere giudiziario.
• In Francia, dal 2019 è vietata la pubblicazione di analisi statistiche sull’“andamento” dei singoli giudici (divieto di judge analytics), norma che segnala una linea di tutela della riservatezza della funzione giudiziaria anche contro derive predittive sul comportamento dei magistrati.
Per giustizia predittiva si intende il sistema che consente di prevedere il possibile esito di una controversia sulla base delle precedenti soluzioni date a casi analoghi o simili oppure, in un’altra accezione, la possibilità che la decisione giudiziale di un processo si affidi ad un algoritmo.
L’ingresso di macchine in professioni che sono sempre state considerate intrinsecamente umane suscita in noi il timore del ritorno ad una visione meccanicistica del ruolo del giudice, mascherata e innovata dall’utilizzo delle tecnologie, improntate sulla prospettiva di decisioni automatizzate, neutre e indifferenti alle realtà umane.
Questi timori sono stati ben rappresentati dal Report del gruppo 1 della XIII Assemblea Nazionale degli Osservatori sulla giustizia civile: in questo frangente, si è considerato che la giustizia predittiva incarni il mito illuminista del giudice “bocca della legge” (Bouche de la loi, Montesquieu). E si sono evidenziate le anomalie di una giustizia siffatta: alla imparzialità del giudice, per darne attuazione in una declinazione di fatto mitologica, impossibile e distorta, si sostituisce l’incorporeità e la a-storicità di una macchina che opera al di fuori della storia, cioè lo spazio abitato dagli umani e dai loro corpi.
La giustizia predittiva può davvero funzionare?
La giustizia predittiva, intesa nella sua accezione di “giudice virtuale”, potrebbe trovare applicazione nel contesto in cui essa ponesse le sue radici in un ordinamento che nel passato fosse stato utopisticamente sempre perfetto. Mi spiego: se l’algoritmo si basa su un sistema giudiziale che ha precedentemente presentato errori o bias2, allora inevitabilmente questi influenzerebbero il diritto presente e futuro. È questa una prospettiva davvero inquietante che credo nessuno vorrebbe.
Per questo, il valore aggiunto dell’intelletto umano risiede nella capacità di discrezione del giudice, nel comprendere ed evitare gli errori giudiziali ed i comportamenti non conformi alla Costituzione.
Il rischio è quello di mascherare un’involuzione con un’evoluzione, di fare un passo indietro e non uno avanti: infatti compito intrinseco della magistratura è quello di evolversi riconoscendo gli errori passati, ed esso deve certamente trovarsi in primo piano rispetto alla mera esigenza di automazione e snellimento dei procedimenti.
Come da previsioni di legge, l’unica possibilità di utilizzo della giustizia predittiva, almeno per ora, risiede nell’affiancamento di un algoritmo all’attività umana. Questo rapporto binomiale non deve però essere definito in termini generali, bensì ben caratterizzato e preciso, senza lasciar scampo a inerzie e facili affidamenti: la giustizia è una cosa seria. .
L'AI Act
L’Artificial Intelligence Act (regolamento UE 2024/1689) nasce dall’esigenza di bilanciare innovazione e tutela dei diritti fondamentali, in linea con i valori sanciti dalla Carta dei diritti fondamentali dell’Unione Europea.
Questa cruciale regolamentazione si basa sul rischio: quanto più un sistema di intelligenza artificiale ha influenza sulla vita delle persone, tanto più rigorosamente questo deve essere regolamentato. Si parla di 4 livelli:
• Rischio minimo: i sistemi con questo coefficiente di rischio non sono soggetti a limiti specifici;
• Rischio limitato: i sistemi con questo coefficiente di rischio sono soggetti ad obblighi di trasparenza;
• Rischio alto: i sistemi con questo coefficiente di rischio possono essere ammessi solo se rispettano requisiti particolarmente stringenti (come tracciabilità e supervisione umana);
• Rischio inaccettabile: i sistemi con questo coefficiente di rischio sono vietati.
Approvato definitivamente nel 2024, l’AI Act entrerà in vigore gradualmente tra il 2025 ed il 2026. La governance sarà affidata all’AI Office della Commissione europea e alle autorità nazionali di vigilanza.
Questo regolamento, quindi, non mira a bloccare lo sviluppo dell’intelligenza artificiale: al contrario, permette uno sviluppo di questa tecnologia di portata ancora più grande, che non sarebbe possibile senza un’adeguata conciliazione tra innovazione e diritti dei cittadini.
Conclusione
L’intelligenza artificiale, come ogni strumento di potere e conoscenza, riflette le mani che la guidano. Nel contesto giudiziario e istituzionale, essa non è di per sé anticostituzionale, ma può diventarlo nel momento in cui si sottrae al controllo umano, alla trasparenza e alla responsabilità. Il rischio non è tanto quello di un “giudice-robot”, quanto quello di un diritto che rinunci alla propria coscienza critica, trasformando la certezza algoritmica in giustizia apparente.
“Non possiamo evitare di confrontarci con la tecnologia: possiamo solo scegliere se governarla o esserne governati.”
Norbert Wiener
Bibliografia
Einstein, Albert, “Interview by George Sylvester Viereck”, The New York Times Magazine, 23 June 1931. In The Ultimate Quotable Einstein, ed. A. Calaprice, Princeton University Press, 2010, p. 474.

Commenti