Continuano ad emergere casi in cui la giurisprudenza menziona la IA, non solo come oggetto del giudizio come già accadeva qualche anno fa, ma soprattutto come aiuto al giudizio: ci si riferisce al caso in cui il Giudice usa un’IA per la sua attività. In passato si era verificato già che un giudice colombiano (Juan Manuel Padilla) decidesse anche usando ChatGPT, sostenendone la legittimità in ragione del rilievo che la decisione finale, in ogni caso, era spettata appunto al giudice persona fisica.

Questa volta viene coinvolta la Corte Costituzionale colombiana a proposito di un utilizzo di ChatGPT 3.5., in sede giurisdizionale, per “ampliare le argomentazioni della decisione adottata” in occasione di una decisione sul regime di tassazione ed esenzioni rispetto ad un minore affetto da autismo (Corte Constitucional, Sala Segunda de Revisión, sentencia T-323 de 2024).

La Corte riporta il testo delle domande poste alla IA, al fine di comprenderne se, in effetti, erano servite solo ad ampliare le argomentazioni, oppure a determinare la decisione.

Così emergeva che “il giudice ha insistito sul fatto che la decisione è stata presa da lui, non dall'IA, che ha consultato semplicemente come ulteriore strumento di lavoro dopo aver adottato la determinazione nel caso specifico. Di conseguenza, ha sostenuto che la consultazione di ChatGPT fosse stata solo un complemento alla decisione già adottata sulla base del fondamenti classici dell'amministrazione della giustizia, basati sul ragionamento giudiziario”.

La Corte Costituzionale, tramite un ragionamento molto articolato, conferma solo parzialmente la tesi del giudice che aveva usato ChatGPT solo a “completamento delle argomentazioni”, rilevando che “l'intelligenza artificiale non può essere utilizzata per sostituire il ragionamento logico e che ciascun giudice è tenuto a svolgere per interpretare i fatti, valutare le prove, motivare e adottare la decisione, poiché ciò comporterebbe la violazione della garanzia del giudice naturale e del giusto processo probatorio.... devono essere applicati i controlli per prevenire la violazione del diritto a un giusto processo dovuta a un uso improprio dell’IA, incluso. L’intelligenza artificiale può essere utilizzata nel sistema giudiziario per aree gestionali, amministrative e documentali, nonché a supporto alla gestione giudiziaria e correzione e sintesi di testi; in tali casi, l'uso di queste tecnologie non sostituiscono il lavoro essenziale che è stato attribuito al funzionario giudiziario".

Di conseguenza viene ordinato al Consiglio Superiore della Magistratura di diffondere una guida, un manuale o una linea guida in relazione all'implementazione dell’intelligenza artificiale generativa in ambito giudiziario, soprattutto per quanto riguarda l’utilizzo di strumenti come ChatGPT. Tale guida dovrà rispettare i principi di: trasparenza, responsabilità, privacy, non sostituzione della razionalità umana, serietà e verifica, prevenzione dei rischi, uguaglianza ed equità, controllo umano, regolamentazione etica, adattamento alle buone pratiche e agli standard collettivi, monitoraggio e adattamento continui, idoneità.

Tali principi, nel complesso, si allineano all’AI ACT, nonchè alla bozza di disegno di legge sull'intelligenza artificiale, nonchè alla giurisprudenza del Consiglio di Stato (tra le altre, sentenza 2270/2019).

Una considerazione, a margine, si ritiene di formularla: le argomentazioni, che sono una forma di ragionamento giuridico, vengono prima della decisione e non dopo; più chiaramente: prima si individuano gli argomenti e, solo in base a questi, successivamente si arriva alla decisione, come fosse una sorta di sommatoria ponderata di argomenti per produrre un risultato che è la sentenza.

Invertire l’ordine, e cioè immaginare che possa esserci prima una decisione e dopo l’individuazione degli argomenti, rivela una fallacia (forse la più grave): l’inversione di causa ed effetto, ovvero un convincimento del giudice basato su se stesso e non su quanto esposto/provato dalle parti, id est processo ingiusto.

Ne segue che gli argomenti a “complemento” cercati tramite IA potrebbero svelare un’incompletezza dell’esame delle carte processuali o, comunque, una determinazione ‘non ancora completa’.

Detto questo, ciascuno, ed anche il giudice, è responsabile di ciò che scrive, sia che prenda ‘spunto’ da una IA, che da un manuale universitario, che da un trattato o una banca dati: sono strumenti e come tali vanno usati. A nessuno verrebbe in mente di pensare che un trattato abbia sostituito una sentenza, se questa è tecnicamente corretta in punto di fatto e diritto.

© Riproduzione riservata