In una mossa che sembra uscita da una distopia legale firmata Black Mirror, la California State Bar ha ammesso candidamente che alcune delle domande a scelta multipla dell’ultimo
sono state redatte con l’aiuto dell’intelligenza artificiale. Non da un gruppo di esperti giuristi, non da professori emeriti, ma da una macchina. Già questo basterebbe a far tremare la toga a qualunque aspirante avvocato con un minimo di coscienza professionale. Ma la cosa più interessante è che il tutto è venuto alla luce non per trasparenza istituzionale, bensì perché gli studenti se ne sono accorti.
Le domande, a quanto pare, “puzzavano” di AI. Sintassi troppo pulita, logica troppo fredda, pattern prevedibili. In altre parole, non sembravano scritte da un essere umano sotto stress, caffeina e deadline editoriali, ma da un algoritmo perfettamente funzionante e senza ansia da prestazione. Mary Basick, assistente decano alla UC Irvine Law School, si è detta speechless. Non per il fatto in sé, ma per il fatto che l’aveva difeso, quel maledetto esame. Quando alcuni studenti avevano sollevato dubbi, la sua risposta era stata netta: “Ma no, dai! Non lo farebbero mai!”. E invece. (L.A. Times)
La barzelletta, se non fosse amara, si scrive da sola: un’intelligenza artificiale che valuta se un essere umano è abbastanza intelligente da diventare avvocato. In un Paese dove il sistema legale è già una giungla di cavilli, commi, loop burocratici e cause infinite, ora ci si mette pure l’AI a dettare le regole del gioco. Anzi, a scrivere le domande dell’esame d’ingresso alla giungla.
Il comunicato ufficiale della State Bar cerca di metterla sul tecnico, quasi volesse minimizzare l’impatto della notizia: “Abbiamo usato l’AI per generare bozze di domande, che sono poi state revisionate da esperti umani”. Come a dire: tranquilli, lo abbiamo solo lasciato guidare per un po’, ma con il freno a mano tirato e l’istruttore accanto. Una rassicurazione che, francamente, vale quanto un disclaimer su un contratto di mutuo scritto in corpo 6.
Ma c’è di più. L’uso dell’intelligenza artificiale non è stato comunicato prima dell’esame, né ai candidati né agli osservatori legali. Il che apre un tema etico di proporzioni non trascurabili. Perché, se è vero che l’AI può essere uno strumento di supporto eccellente, è altrettanto vero che la trasparenza nei processi di valutazione è un pilastro della fiducia nel sistema. Qui invece, si è operato in modalità stealth, lasciando che gli studenti facessero il beta testing inconsapevolmente.
Eppure, la direzione è chiara. L’AI sta già scrivendo sentenze, pareri legali, documenti di discovery e perfino memorie difensive. Ora scrive anche gli esami di abilitazione. A quando l’AI che siede in aula al posto dell’avvocato in carne ed ossa? A quando un giudice GPT-9? Magari una giuria fatta da LLM specializzati in dati psicografici e machine learning bias mitigation.
Nel frattempo, il messaggio per gli studenti è chiaro: se vuoi diventare avvocato, forse è il caso che tu cominci a studiare non solo il diritto civile e penale, ma anche come ragiona una rete neurale. Perché, molto presto, potresti dover convincere un algoritmo, non una commissione.
La toga resta, ma l’orlo è cucito in Python.