Autore: Avv. Fabrizio Testa
La recente ordinanza del Tribunale di Firenze, Sezione Imprese, pubblicata il 14 marzo 2025, ha destato vivo interesse perché, a quanto risulta, per la prima volta un ufficio giudiziario italiano ha dovuto confrontarsi con il problema delle allucinazioni dell’intelligenza artificiale: quella utilizzata nel caso di specie da un avvocato per reperire precedenti giurisprudenziali ne ha infatti generati di inesistenti, che sono stati riportati in un atto difensivo senza previo controllo.
La vicenda
In un giudizio avente ad oggetto un sequestro ai sensi del C.P.I. di prodotti che si assumevano frutto di plagio o contraffazione, il reclamante - per quanto qui interessa - ha rilevato come i
richiami giurisprudenziali
indicati nell’avversa comparsa di costituzione fossero
inesistenti
o di contenuto reale non corrispondente a quello riportato ed il Tribunale ha concesso termini sfalsati alle parti per depositare note scritte sulla questione, riservandosi all’esito per la decisione.
Nelle note autorizzate, il difensore della società costituita ha dichiarato che i riferimenti giurisprudenziali citati nell’atto sono stati il frutto della ricerca effettuata da una collaboratrice di studio mediante
ChatGPT
, del cui utilizzo il patrocinatore in mandato non era a conoscenza. L’intelligenza artificiale avrebbe dunque generato c.d. allucinazioni, che si verificano allorché inventa risultati inesistenti ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri. Nel caso di specie, in particolare, ChatGPT avrebbe generato numeri asseritamente riferibili a sentenze della Corte di Cassazione inerenti all’aspetto soggettivo dell’acquisto di merce contraffatta con il cui contenuto, invece, nulla avevano a che vedere. La reclamata, pur riconoscendo l’
omesso controllo
sui dati così ottenuti, ha chiesto lo stralcio di tali riferimenti, ritenendo già sufficientemente fondata la propria linea difensiva.
Sul punto, il reclamante ha rilevato l’errore di verifica della veridicità delle ricerche effettuate e, sottolineando l’
abusivo utilizzo dello strumento processuale
, ha chiesto la condanna di controparte ex art. 96 c.p.c. per aver in questo modo influenzato la decisione del collegio.
La decisione
Nell’ordinanza in esame (Tribunale di Firenze, Sezione Imprese, ordinanza 14 marzo 2025, consultabile sulla Banca Dati del Merito ministeriale) il Collegio ritiene che la richiesta di condanna di ex art. 96 c.p.c. debba essere
rigettata
, rilevando anzitutto come l’indicazione di tali riferimenti giurisprudenziali sia stata posta a fondamento della tesi in origine sostenuta dalla reclamata, proposta quindi a supporto di una struttura difensiva rimasta immutata sin dal primo grado del giudizio ed oggettivamente
non finalizzata ad influenzare
il collegio, appuntandosi piuttosto su quanto già indicato, in senso analogo, anche nelle decisioni di prime cure, in ordine all’assenza dell’elemento soggettivo della malafede dei dettaglianti, elemento sulla base del quale non sono state a loro estese le misure cautelari. Neppure - aggiunge il Tribunale - può ritenersi applicabile il comma 3 dell’art. 96 c.p.c., che è teso a disincentivare l’abuso del processo o comportamenti strumentali alla funzionalità del servizio giustizia ed in genere al rispetto della legalità sostanziale e che non può prescindere dalla condotta posta in essere con mala fede o colpa grave né dall’abusività della condotta processuale.
Il Collegio fiorentino conclude dunque che,
fermo restando il disvalore relativo all’omessa verifica
sull’effettiva esistenza delle sentenze risultanti dall’interrogazione dell’IA, l’indicazione di tali estremi di legittimità nel giudizio di reclamo ad ulteriore conferma della linea difensiva già esposta sin dal primo grado si può considerare diretta a rafforzare un apparato difensivo già noto e non invece finalizzata a resistere in giudizio in malafede, conseguendone la
non applicabilità delle disposizioni di cui all’art. 96 c.p.c.
I precedenti internazionali e nazionali
Se come detto, a quanto consta, quello in commento è il primo caso in cui chatGPT o altri strumenti di intelligenza artificiale vengono espressamente menzionati in un giudizio italiano di merito, in altri contesti ed ambiti erano già apparsi.
Per quanto riguarda l’
utilizzo da parte di avvocati
, il primo comunemente citato è il c.d.
caso Schwartz
(
Mata v. Avianca Inc, 22 giugno 2023
) affrontato dalla
United States District Court, S.D. New York
. Nel processo intentato da Roberto Mata contro la compagnia aerea Avianca per un risarcimento da lesioni personali, si è scoperto che il suo avvocato Steven A. Schwartz ha supportato la domanda con diversi precedenti rivelatisi inesistenti e falsi, perché inventati da ChatGPT. Il legale si è difeso affermando che non aveva avuto alcuna intenzione di ingannare il tribunale o la compagnia aerea, aveva deciso di sperimentare la nuova tecnologia senza averla mai provata, non era a conoscenza del problema delle c.d. allucinazioni, aveva chiesto ed ottenuto dall'IA rassicurazione sulla veridicità dei casi, si rammaricava di averla utilizzata senza controlli e non l’avrebbe più usata in futuro senza una verifica assoluta della sua autenticità, ma è stato sanzionato per il suo comportamento negligente.
Quanto all’Italia, prima dell’ordinanza in commento, ChatGPT appare espressamente, per la prima volta, in una sentenza di inammissibilità della terza sezione penale della
Cassazione
(
n. 14631 del 9 aprile 2024
), nella quale si dà semplicemente atto che la difesa dei ricorrenti in Corte Suprema contro la sentenza che li aveva condannati per reati edilizi ed ambientali riferisce che “
anche l’intelligenza artificiale ChatGPT aveva confermato che l’area in questione non era soggetta a vincoli
”.
L’intelligenza artificiale è stata invece protagonista di un recente procedimento amministrativo, all’esito del quale il
TAR Lazio
, con la
sentenza n. 4546 del 3 marzo 2025
, ha respinto il ricorso di un’azienda esclusa dall’assegnazione di un appalto pubblico, confermando la legittimità dell’impiego di ChatGPT da parte della società vincitrice. La ricorrente contestava infatti i singoli punteggi molto elevati assegnati all’offerta concorrente in ragione delle intelligenze artificiali di cui essa aveva dichiarato di volersi avvalere in relazione a taluni specifici criteri, affermando che ChatGPT aveva risposto in maniera incompatibile con l’utilizzo che la società vincitrice intendeva farne, e censurava l’illogicità dell’operato della Stazione appaltante per aver accolto positivamente senza approfondimento istruttorio l’utilizzabilità dell’IA nell’ambito del servizio oggetto di causa. Il tribunale amministrativo ha però rigettato le doglianze ritenendole inammissibili, in quanto costruite solo sulla base di interrogazioni di ChatGPT eseguite dai difensori in funzione del gravame, nonché basate su una lettura errata dell’offerta tecnica vittoriosa, dei criteri di valutazione e dei giudizi espressi.
Per quanto riguarda l’
utilizzo da parte di giudici
, il primo comunemente riconosciuto è il c.d.
caso Loomis
, oggetto di una discussa sentenza del 2016 in cui la Corte Suprema del Wisconsin (
State of Wisconsin v. Eric L. Loomis, 13 luglio 2016
) si è pronunciata sull’appello del sig. Eric L. Loomis, la cui pena a sei anni di reclusione perché fermato dalla polizia alla guida di un’automobile usata in una sparatoria era stata comminata dal Tribunale circondariale di La Crosse anche tenendo conto dei risultati elaborati dal
software
COMPAS (
Correctional offender management profiling for alternative sanctions
), secondo cui Loomis era da identificarsi quale soggetto ad alto rischio di recidiva. L’appellante ha affermato che l'uso ai fini della condanna di tale
software
, basato su un algoritmo proprietario, viola il diritto dell'imputato al giusto processo perché gli impedisce di contestare la validità scientifica e l'accuratezza del test e perché tiene conto anche del genere e della razza, ma la Corte ha rigettato l’impugnazione perché, sebbene i giudici precedenti avessero fatto riferimento ai risultati di COMPAS nel determinare la pena, vi avevano attribuito un peso minimo e la sentenza non sarebbe stata diversa in assenza dei dati forniti dallo strumento, utilizzabili con discrezionalità e prudenza se non determinanti e se bilanciati con altri fattori.
Nei Paesi Bassi, più recentemente, ha attirato l’attenzione il primo uso espresso di ChatGPT da parte di un
tribunale olandese
, il
Rechtbank Gelderland
(
ECLI:NL:RBGEL:2024:3636
, 26 luglio 2024). Il caso era relativo ad una controversia tra due proprietari immobiliari, uno dei quali aveva sopraelevato causando al vicino un rendimento inferiore dei suoi pannelli solari, che chiedeva quindi i danni. Nella decisione, il tribunale ha riferito di aver utilizzato anche ChatGPT nel calcolo dei danni al fine di determinare la durata media dei pannelli solari, da un lato rendendo apprezzabilmente trasparente l'uso dell’intelligenza artificiale, ma dall’altro peraltro non chiarendo con quali
prompt
sia stata interrogata, non consentendo la valutazione e la tracciabilità della risposta e ledendo potenzialmente il diritto di difesa.
Osservazioni conclusive
L’intelligenza artificiale può essere un valido strumento al servizio della giustizia e dei suoi operatori - in termini di efficacia, efficienza e riduzione di costi e tempi - ma, come dimostrano i casi citati, occorre adeguata formazione e sperimentazione, per acquisire consapevolezza dei rischi (in tema di privacy, proprietà intellettuale, diritto d’autore, false informazioni, allucinazioni, questioni etiche e deontologiche), padronanza tecnica e conoscenza giuridica, in un contesto in cui la normativa è in evoluzione di fronte ad una tecnologia che viaggia a velocità estremamente sostenuta. Un’altra sfida stimolante per avvocati e giudici.