giudice e intelligenza artificiale

LA LEGGE È UGUALE PER TUTTI MA NON PER L’INTELLIGENZA ARTIFICIALE – IL CSM ANNUNCIA LA STRETTA SULL’USO DELL’IA NELLE SENTENZE – DUE GIUDICI, UNO A TORINO E UNO A LATINA, SONO STATI BECCATI A USARE CHATGPT, CHE HA CITATO PRECEDENTI INESISTENTI E USATO “CITAZIONI ASTRATTE E INCONFERENTI” (CHISSÀ QUANTI INVECE L’HANNO FATTA FRANCA) - NELLA PROPOSTA ELABORATA DALLA SETTIMA COMMISSIONE, SOFTWARE COME CHATGPT O SOFTWARE GENERATIVI SIMILI COME CHATBOT, COPILOT, GEMINI, PERPLEXITY VERRANNO CONSIDERATI “FUORILEGGE”

Vai all'articolo precedente Vai all'articolo precedente
guarda la fotogallery

 

 

Estratto dell’articolo di Felice Manti per “il Giornale”

 

giudice e intelligenza artificiale 5

Dalle sentenze copia-incolla a ChatGtp l’algoritmo è breve. Dopo l’Ai Act europeo 2024/1689 e la legge 132 del 23 settembre scorso, che considerano «l’uso della tecnologia nella giustizia “ad alto rischio”» e vietano «le decisioni basate unicamente su un trattamento automatizzato», il Csm avvisa chi sceglie la scorciatoia pericolosa dell’aiutino dell’intelligenza artificiale nella sentenze.

 

A quanto risulta al Giornale da una fonte al Csm, «pare che in Procura generale della Cassazione pendano un paio di procedimenti» nei confronti di almeno due giudici “furbetti” - uno di primo grado - che avrebbero assunto una decisione citando precedenti inesistenti». Almeno un caso «sarebbe partito dalla Cassazione, dove è avvenuta la verifica» e «l’azione disciplinare da parte del Procuratore generale per grave e inescusabile negligenza» sarebbe già partita, ci conferma un altra fonte legale.

giudice e intelligenza artificiale 4

 

[…] Per due giudici «pizzicati» in flagranza dal setaccio della Cassazione e diversi avvocati in malafede, condannati da Torino a Latina per lite temeraria ai sensi dell’articolo 96 del Codice di procedura penale dopo i loro ricorsi scritti da ChatGpt «con citazioni astratte e inconferenti», chissà quanti nelle aule di tribunale finora l’hanno fatta franca.

 

Ecco perché l’ultimo plenum di lunedì scorso è stata decisa la stretta. Sappiamo che nei tribunali italiani si sperimentano già sistemi che analizzano precedenti, gestiscono gli arretrati o redigono bozze di atti, nei finanziamenti Pnrr è prevista la riduzione dell’arretrato anche grazie ad alcuni algoritmi dell’intelligenza artificiale, […] ma il rischio che una macchina possa «decidere» per un giudice atterrisce.

 

giudice e intelligenza artificiale 1

Nella proposta elaborata dalla settima Commissione, relatori Marco Bisogni e la presidente Maria Vittoria Marchianò, per evitare distorsioni nell’esercizio dell’azione giudiziaria software come ChatGpt o software generativi simili come Chatbot, Copilot, Gemini, Perplexity sono «fuorilegge» per redigere sentenze o motivazioni, in chiave «predittiva»o per valutare le prove.

 

La responsabilità è di chi firma la sentenza e non sarà delegabile - tipo “me l’ha suggerito ChatGpt” - secondo i principi di indipendenza, imparzialità e responsabilità personale sanciti dagli articoli 101 e 104 della Costituzione.

 

giudice e intelligenza artificiale 3

L’uso delle tecnologie non si può rinviare, prima servono trasparenza, supervisione umana costante, piena tracciabilità e affidabilità dei dati, «l’addestramento» della Ai deve avvenire senza bias cognitivi, pregiudizi né discriminazioni, eventuali risultati inattendibili andranno reinterpretati o modificati dai giudici, con algoritmi sottoposti a una valutazione d’impatto etico e costituzionale.

 

Il Csm chiederà un registro nazionale delle app di Ai certificate e percorsi formativi obbligatori organizzati dalla Scuola superiore della magistratura, chiesto dall’Osservatorio su Intelligenza artificiale e diritto, come ricorda al Giornale l’avvocato Cesare Del Moro, con una sperimentazione sotto l’egida del ministero della Giustizia.

 

giudice e intelligenza artificiale 2

Sarà data massima attenzione alle informazioni generate, saranno inaccessibili ai terzi non autorizzati, ma serve anche la protezione dei dati - anonimizzati per evitare il rischio di reidentificazione attraverso l’incrocio di dataset - in un sistema informatico purtroppo vulnerabile. In Cina già dal 2022 si è deciso il ricorso all’Ai per «limitare il potere discrezionale dei giudici e garantire equità, efficienza, e precisione nel giudizio», ma non si può pensare di ridurre un processo già per molti «ingiusto» a una a una mera contabilità digitale.  […]