ChatGPT nelle aule di tribunale: utile strumento di difesa o rischio eccessivo?
La suola rossa del noto brand Christian Louboutin, creata per la prima volta nel 1993 con un semplice smalto, incarna ormai un’icona nel mondo della moda, tanto che è stata registrata come marchio e viene tenacemente tutelata dal suo titolare.
Di recente, Louboutin ha prevalso in due procedimenti promossi contro contraffattori dinanzi ai tribunali di India e Brasile, continuando una lunga serie di vittorie nelle aule di tribunale e contribuendo a consolidare la reputazione del brand nel settore della moda. Con decisione del 22 agosto 2023 (disponibile qui), la High Court of Deli ha ordinato, nei confronti di M/S Shoes Boutique l’inibitoria della vendita di scarpe che rispecchiano i modelli “spiked”, decorati con borchie o punte, o la tipica suola rossa di Louboutin.
La decisione è particolarmente interessante perché il giudice Prathiba M. Singh ha affrontato la questione dell’affidabilità dei dati generati dall’intelligenza artificiale (“IA”).
La difesa del brand parigino ha infatti portato all’attenzione della Corte indiana, quale prova del carattere distintivo acquisito dal marchio della suola rossa, una risposta fornita dalla celebre piattaforma di intelligenza artificiale, ChatGPT. Alla domanda se il brand sia noto per scarpe da uomo decorate con borchie o punte, l’IA rispondeva affermando che “Louboutin è noto per le sue iconiche scarpe con la suola rossa, compresi i modelli spiked per uomini e donne”, di seguito come riportata nel testo della decisione stessa:
Il giudice adito ha poi confermato il carattere distintivo del marchio azionato e di conseguenza concesso la misura cautelare oggetto della domanda attorea, ma ha anche evidenziato che: “L’accuratezza e l’affidabilità dei dati generati dall’intelligenza artificiale sono ancora in una “zona grigia”. La Corte non ha dubbi sul fatto che, allo stato attuale dello sviluppo tecnologico, l’IA non possa sostituire l’intelligenza umana o l’elemento umano nel processo giudiziario. Al massimo lo strumento potrebbe essere utilizzato per una comprensione preliminare o per una ricerca preliminare e nulla più”.
L’utilizzo dell’intelligenza artificiale si sta facendo sempre più spazio nelle aule di giustizia. Basti pensare che in un caso recente il noto giudice della Court of Appeal inglese, Lord Justice Colin Birss, ha affermato di essersi servito dell’aiuto di ChatGPT per la redazione di una sentenza, dichiarandosi molto soddisfatto dell’output ottenuto e valutando lo strumento come “jolly useful”.
Tuttavia lo stesso giudice ha rivendicato la piena paternità di quanto scritto e sottolineato l’importanza di non affidarsi all’IA in modo acritico e per argomenti che non risultino ben chiari all’autore. Infatti, ChatGPT e strumenti simili si sono dimostrati spesso inclini ad “allucinazioni” o a riportare dati inesistenti, come accaduto nel noto caso di due avvocati di New York nel caso Mata v. Avianca (disponibile qui), sanzionati dalla corte per aver citato precedenti giudiziari suggeriti da ChatGPT ma in realtà inesistenti.
Ed è proprio per tale motivo che molti tribunali, quantomeno negli Stati Uniti, hanno cominciato a introdurre degli obblighi di trasparenza per gli avvocati che utilizzano strumenti di IA generativa, i quali devono non solo dichiarare se e in che modo tali strumenti siano stati utilizzati nella redazione di atti o preparazione delle difese, ma anche attestare che i risultati generati sono stati sottoposti a revisione umana (si veda tra gli ultimi l’ordine della District Court for the Eastern District of Pennsylvania).
L’evoluzione nell’utilizzo dei sistemi di IA generativa nel settore legale e la sempre maggiore adozione dei medesimi nella pratica quotidiana di giudici e avvocati dovranno essere attentamente monitorati, data la delicatezza dell’ambito di applicazione (come già riconosciuto, ad esempio, dalla bozza di Regolamento sull’IA dell’Unione Europea, che classifica come “ad alto rischio” i sistemi di IA utilizzati nella amministrazione della giustizia e nei processi democratici), e potrebbero a breve richiedere una valutazione in merito alla necessità di interventi legislativi ad hoc per regolarne l’utilizzo nelle aule di tribunale.