L’IA e la Giustizia Artificiale

| 11/02/2025

Da qualche tempo l’IA generativa è divenuta questione non soltanto tecnologica, ma, soprattutto, politica. Governi e aziende si muovono per conquistare posizioni su questa tecnologia strategica i cui usi stanno diventando sempre più ampi e profondi. Tra i tanti settori di utilizzo, anche la giustizia sta assistendo all’introduzione di sistemi di IA con qualche rischio che nasce dall’uso talvolta poco attento in un settore così critico.

Nella primavera del 2023, la compagnia aerea colombiana Avianca Airlines ha dovuto affrontare un processo negli Stati Uniti nel quale un suo cliente, Roberto Mata, ha denunciato la compagnia per essere stato colpito durante un viaggio fatto nel 2019 da El Salvador a New York, da un carrello di servizio a bordo dell’aereo e di aver subito delle ferite gravi.

Nel presentare la loro accusa, gli avvocati di Mata, Steven Schwartz e Peter LoDuca dello studio legale newyorkese “Levidow, Levidow & Oberman”, hanno citato almeno altri sei casi simili per dimostrare l’esistenza di sentenze di condanna per le compagnie aeree, tra cui il caso Varghese contro China Southern Airlines e Shaboon contro Egypt Air. La corte ha cercato gli atti dei casi citati e ha scoperto che quei casi in realtà non sono mai esistiti. Erano semplicemente «false decisioni giudiziarie con false citazioni». Come conseguenza, gli avvocati Schwartz e LoDuca sono stati sanzionati con un’ammenda di 5.000 dollari.

L’errore era avvenuto perché l’avvocato Schwartz aveva utilizzato ChatGPT per condurre ricerche legali per la sua arringa in tribunale che faceva riferimento ai casi che lo strumento di intelligenza artificiale generativa gli aveva assicurato fossero casi reali. In effetti, successivamente agli accertamenti, Steven Schwartz ha sottoscritto una dichiarazione giurata in cui ha ammesso di aver utilizzato il chatbot di IA, affermando di non aver avuto alcuna intenzione di ingannare il tribunale e di non aver agito in malafede. L’avvocato ha dichiarato di essersi mortificato dopo aver appreso che i casi da lui citati erano falsi, aggiungendo che quando ha utilizzato lo strumento software «non aveva capito che non era un motore di ricerca, ma uno strumento di elaborazione generativa del linguaggio.»

Naturalmente il giudice Kevin Castel non si è fatto convincere dall’ingenuità dell’avvocato e gli ha inflitto la sanzione pecuniaria. Nella sua sentenza ha anche stabilito che i due avvocati dovevano informare i giudici, tutti reali, i cui nomi apparivano nella memoria legale come autori delle false sentenze inventate da ChatGPT, inviando loro una copia della sentenza di condanna dei legali.

Nonostante questo serio incidente di percorso, l’intelligenza generativa si sta diffondendo nei contesti giudiziari in diverse nazioni e, se porterà maggiore efficienza in diversi casi, non si può escludere del tutto che potrà creare nuovi problemi e richiederà inedite soluzioni che dovranno essere adottate per evitare che la “giustizia artificiale” non sia peggiore della giustizia umana che abbiamo conosciuto fino ad oggi.

Un caso più recente di impiego di ChatGPT nelle aule di giustizia arriva dall’Argentina. Nella primavera 2024, la Procura della città di Buenos Aires ha iniziato a utilizzare l’intelligenza artificiale generativa per prevedere e generare le sentenze relative ad alcuni casi di vertenze di diritto del lavoro correlate a richieste salariali.

Da qualche mese, i dipendenti dell’ufficio della Procura per le questioni amministrative e fiscali della città di Buenos Aires hanno caricato i documenti dei casi in ChatGPT, chiedendogli di analizzare i contenuti dei testi, di effettuare una classificazione preliminare da un catalogo di modelli di sentenze e compilare decisioni da sottoporre ai giudici. Finora, ChatGPT è stato così utilizzato per alcune decine di sentenze. Da quel che risulta, l’uso dell’intelligenza artificiale generativa ha ridotto i tempi necessari per redigere le sentenze da un’ora a circa dieci minuti.

«Noi, come professionisti, non siamo più i personaggi principali. Siamo diventati degli editor.», questa è una dichiarazione che colpisce fatta da Juan Corvalán, viceprocuratore generale a Buenos Aires per le questioni amministrative e i contenziosi fiscali. Ovviamente l’introduzione di strumenti di intelligenza artificiale generativa ha migliorato l’efficienza dell’ufficio, ma ha anche suscitato molte preoccupazioni all’interno della magistratura argentina e tra gli esperti legali sui possibili pregiudizi, il trattamento dei dati personali e l’emergere delle cosiddette ‘allucinazioni’ dei sistemi come ChatGPT, come ha appreso a sue spese l’avvocato Schwartz di New York. Preoccupazioni che ovviamente si stanno diffondendo nel settore della giustizia anche oltre i confini dell’Argentina.

Si teme che qualsiasi uso impreciso o scorretto potrebbe avere costi legali considerevoli. Sono diversi i giudici negli Stati Uniti ad aver espresso il loro scetticismo sull’utilizzo dell’intelligenza artificiale generativa nei tribunali. Giusto per citare un esempio tra i tanti, il giudice federale di Manhattan Edgardo Ramos ha dichiarato che «ChatGPT ha dimostrato finora di essere una risorsa inaffidabile». In Colombia e nei Paesi Bassi, l’uso di ChatGPT da parte dei giudici è stato criticato da diversi esperti locali. Ma non tutti i soggetti interessati dall’impatto dell’IA generativa si mostrano preoccupati. Ad esempio, un giudice della corte d’appello nel Regno Unito che ha utilizzato ChatGPT per scrivere parte di una sentenza, ha dichiarato di trovarlo molto utile.

Nonostante le attuali perplessità, i sistemi di IA generativa pian piano entreranno sempre più nelle procure e nelle aule dei tribunali. Tuttavia, gli errori, i pregiudizi e le allucinazioni sono nascosti dietro l’angolo e servono competenze e massima attenzione per evitarli, perché tra i problemi principali di questi sistemi c’è l’affidabilità dei dati e delle informazioni usate e prodotte dai modelli generativi. La ricerca in questo senso sta proponendo nuove soluzioni che vanno sotto il nome di RAG (Retrieval-Augmented Generation).

Secondo uno studio dell’università di Stanford le allucinazioni dei sistemi come ChatGPT, Gemini e altri, potrebbero comportare rischi legali significativi e i casi in cui questi sistemi impiegati in ambito legale generano informazioni false, improprie o irrilevanti ammontano a circa il 17%. Una percentuale ancora troppo alta e inaccettabile per un qualsiasi sistema giudiziario. La strada verso un uso diffuso dell’IA generativa nei tribunali è ancora incerta e accidentata, anche se la spinta a percorrerla è molto forte. Serviranno attenzione, competenza, perizia e professionalità legali e tecniche per avere un uso diffuso di questi sistemi senza creare danni. In caso contrario, la giustizia assistita dall’intelligenza artificiale sarà più rapida ma più ingiusta di quella che gli umani hanno saputo somministrare finora.

Barberio & Partners s.r.l.

Via Donatello 67/D - 00196 Roma
P.IVA 16376771008

Policy
Privacy Policy
Cookie Policy
Termini e Condizioni
iscriviti alla nostra newsletter
Questo sito è protetto da reCAPTCHA e la Informativa sulla Privacy di Google, nonché i Termini di Servizio sono applicabili.