News

Altre news

Andrea Filippo Mainini nominato membro effettivo del collegio sindacale di Metamorphosis

Avvicendamento nel Collegio dei Revisori dei conti della Federazione Italiana Pesistica:

Inchiesta doppia Curva: Inter e Milan ed il Modello 231

L’importanza della prevenzione:

ARBITRATO TELEMATICO E INTELLIGENZA ARTIFICIALE (UNA NUOVA FRONTIERA) – Parte terza

Introduzione

Nella PARTE I del presente elaborato ci siamo occupati dell’arbitrato telematico ovvero delle nuove modalità digitali con le quali è oggi possibile lo svolgimento delle diverse fasi del procedimento arbitrale.

Nella PARTE II, invece, ci siamo occupati di tre possibili soluzioni che potrebbero garantire una maggiore applicazione degli strumenti informatici/telematici nel procedimento arbitrale: la previsione di procedimenti arbitrali rapidi, la possibilità di procedimenti completamente online e la possibilità di gestione online dell’intero procedimento (online case management). Inoltre, è stata analizzata la tematica della tecnologia della blockchain nel procedimento arbitrale. Infine, la terza e ultima parte del presente elaborato affronterà l’interessante tema dell’intelligenza artificiale nel procedimento arbitrale.

INTELLIGENZA ARTIFICIALE E ARBITRATO

Quale potrebbe essere l’ipotetico futuro del procedimento arbitrale in relazione all’intelligenza artificiale? Si tratta con certezza di un futuro basato su innovazioni, praticità, ottimizzazione dei tempi, ingenti risparmi e soluzioni soddisfacenti per le parti all’interno di un conflitto. Nonostante l’intelligenza artificiale non abbia avuto finora un ruolo rilevante nell’arbitrato, le incertezze dilagano nella lunga strada da percorrere e, per questa ragione, il tema richiede una minuziosa riflessione per cercare di iniziare a delimitare un possibile quadro giuridico futuro.

Il procedimento arbitrale ha diversi protagonisti e il primo approccio da affrontare fa riferimento alle conseguenze, derivanti dall’introduzione dell’IA, sui detti protagonisti (arbitro, avvocato, parti, Istituzioni Arbitrali ecc) e ai possibili rischi derivanti da una loro sostituzione con una macchina. Ci soffermeremo in modo specifico sulla figura dell’arbitro (o tribunale arbitrale) e analizzeremo velocemente anche la figura dell’avvocato difensore nel procedimento arbitrale[1].

L’intelligenza artificiale e la figura dell’avvocato

 

Nell’ordinamento giuridico italiano le parti possono stare in arbitrato per mezzo di difensori[2]. Il test online “Will a Robot Take My Job?[3], progettato ed elaborato da McKinsey[4], è un test online che consente di inserire la propria professione e calcolare le probabilità, in termini di percentuali, di essere sostituiti da un robot. Per gli avvocati, il 23% del loro lavoro può essere svolto da un robot e i compiti dell’avvocato, che il test suggerisce possano essere svolti da un robot, includono la ricerca di materiali legali attinenti al caso concreto, preparare documenti legali e fare delle ricerche su materiali legali rilevanti nella decisione[5]. In alternativa alla sostituzione degli avvocati con l’intelligenza artificiale, attualmente esistono diversi strumenti e modalità di assistenza che possono aiutare gli avvocati nell’ambito del procedimento arbitrale. A tal proposito facciamo riferimento al progetto “Ross” dell’IBM[6] (Ross è stato sviluppato partendo da Watsonun computer cognitivo di IBM). Questo programma di ricerca è stato sviluppato per gestire le pratiche in materia di diritto fallimentare di uno studio legale insieme ad altri cinquanta avvocati umani. Possiamo definire Ross come il primo avvocato artificialmente intelligente al mondo, il quale è in grado di fare quello che nessun avvocato umano potrebbe fare in modo efficiente, ovvero, leggere e comprendere un database di legislazioni, casi e commenti accademici estremamente ampio e in rapida e continua crescita. Inoltre, Ross è in grado di imparare dall’esperienza, migliorando in precisione e velocità via via che gli utenti forniscono sempre più informazioni al programma e può compilare ricerche e generare risposte inserendo riferimenti e citazioni a sostegno delle sue decisioni.[7] L’utilizzo di programmi/sistemi dotati di intelligenza artificiale, come Ross, nel procedimento arbitrale sia nazionale che internazionale per l’elaborazione e il riassunto di grandi quantità di dati, verrà probabilmente ampiamente accettato nei prossimi anni come buona metodologia di ricerca. Non sussistono oggi importanti interrogativi circa la legittimità di tali strumenti di intelligenza artificiale nelle moderne controversie e negli arbitrati, invero, la presenza di strumenti dotati di tali caratteristiche potrebbe senza altro aiutare e velocizzare i procedimenti arbitrali.

 
L’intelligenza artificiale e la figura dell’arbitro

Sono tre le modalità secondo le quali l’Intelligenza Artificiale potrebbe essere utilizzata nel procedimento arbitrale con riferimento alla figura dell’arbitro: 1) l’IA può sostituire gli arbitri umani che compongono il collegio arbitrale (avremo quindi un collegio arbitrale composto da sola intelligenza artificiale); 2) l’IA può lavorare in combinazione con gli arbitri umani (avremo quindi un collegio arbitrale misto: essere umani e intelligenza artificiale) oppure 3) gli arbitri umani possono consultarsi con l’IA[8], ovvero il collegio arbitrale continua ad essere composto da solo arbitri umani che utilizzano l’IA a proprio supporto e assistenza.

 

  • Collegio arbitrale composto da sola intelligenza artificiale?

Per rispondere a questa domanda, dobbiamo cercare di capire se sussistono o meno disposizioni che richiedono espressamente che l’arbitro sia un essere umano.

Nella Convenzione di New York[9] non troviamo alcun riferimento esplicito secondo il quale gli arbitri devono essere “esseri umani” [10]. Analizzando nel dettaglio alcuni ordinamenti nazionali possiamo notare, ad esempio, che la legislazione del Cile[11], della Colombia[12] e del Messico[13] non prevedono un riferimento specifico agli arbitri come “persone umane” né tanto meno chiedono che esse siano in grado di esercitare i loro diritti civili[14].

D’altra parte, tuttavia, le procedure per la nomina e le motivazioni per la contestazione degli arbitri nella legge modello UNCITRAL sull’arbitrato implicano che l’arbitro sia umano. Infatti, l’art. 11 paragrafo 1, recita che “No person shall be precluded by reason of his nationality from acting as an arbitrator, unless otherwise agreed by the parties“. Invece, l’articolo 12, paragrafo 1, prevede che “When a person is approached in connection with his possible appointment as an arbitrator, he shall disclose any circumstances likely to give rise to justifi able doubts as to his impartiality or independence“. In questo senso anche la legislazione del Perù[15] o quella dell’Ecuador[16], dove vengono fatti riferimenti specifici ad arbitri come “persone” oppure si chiede a loro di avere capacità di agire autonomamente. Infine, lo stesso Codice di procedura civile italiano, all’art. 812, dispone che “Non può essere arbitro chi è privo, in tutto o in parte, della capacità di agire”.

Attualmente la maggior parte delle leggi interne in materia di arbitrato tace sull’uso esplicito dell’IA come arbitri. Qualora la legislazione di un paese permettesse l’uso di arbitri non umani, e quindi anche di arbitri dotati di intelligenza artificiale, bisognerà capire come deve essere concesso tale permesso. La domanda è: i governi dovrebbero riconoscere la società che ha sviluppato l’algoritmo o l’algoritmo stesso?[17]. Quasi tutti i paesi riconoscono la società come entità giuridica ma non riconoscono (ancora) i singoli algoritmi come entità giuridiche separate.

  • Composizione mista del collegio arbitrale (essere umani + IA) 

Nell’ipotesi di un collegio arbitrale misto i principali problemi potrebbero riguardare gli equilibri decisionali del collegio “misto”[18]:

  • L’IA potrebbe essere il presidente del tribunale arbitrale? In questo caso allora dovrebbe essere programmata diversamente?
  • Potrebbero due arbitri umani ignorare l’intelligenza artificiale?
    • In un collegio arbitrale composto da tre soggetti, se c’è un disaccordo tra gli esseri umani, l’IA sarebbe in grado di sbloccare una possibile situazione di stallo?
    • Se vengono nominati due arbitri dotati di IA e un essere umano che è anche il presidente del collegio arbitrale, il lodo sarà rilasciato e firmato solo dall’arbitro umano oppure dovrà essere certificato da tutti compreso l’IA?
    • Cosa succede se l’arbitro essere umano non è d’accordo con gli altri due arbitri dotati di IA?

Sulla base di questi problemi e interrogativi sarebbe necessario che il ruolo dell’intelligenza artificiale nel procedimento arbitrale venisse precedentemente delineato con precisione: ad esempio, bisognerebbe determinare se l’IA ha gli stessi poteri, diritti e doveri dell’arbitro essere umano oppure se l’arbitro essere umano è superiore o uguale all’arbitrato dotato di IA. Anche la formulazione di un codice etico per gli arbitri dotati di IA potrebbe aiutare nella risoluzione dei problemi e potrebbe essere in grado di fornire risposte alle domande suesposte.

3.a)   IA a sostegno dell’essere umano

Molto meno controverso e decisamente più facile da accettare è la possibilità di usare l’IA a sostegno dell’arbitro piuttosto che sostituire gli arbitri umani o avere collegi arbitrali misti[19]. Di fatto, sono tanti i modi per sfruttare l’IA a sostegno degli arbitri. Ne vediamo alcuni:

  • L’intelligenza artificiale potrebbe svolgere la funzione di elaborazione e riassunto di grande quantità di dati, casi, commenti e documenti (si ricorda il già citato programma “Ross”, che potrebbe essere utilizzato in futuro nel procedimento arbitrale come buona metodologia di ricerca anche per gli arbitri);
  • l’IA può essere utilizzata anche per aiutare la stesura di un accordo di arbitrato che risulti essere il più adeguato alle esigenze del proprio cliente: ad esempio, il sistema di redazione di clausole di risoluzione delle controversie della American Arbitration Association[20] che consente la redazione di clausole personalizzate;
  • si può pensare di utilizzare l’IA anche per l’attività di controllo sulla decisione resa da un tribunale arbitrale/arbitro unico: questa opzione potrebbe risultare utile e potrebbe fungere da strumento di precauzione e potrebbe correggere i pregiudizi inconsci degli arbitri stessi;
  • vi è anche la possibilità di utilizzare i sistemi di IA disponibili per la designazione degli arbitri: la scelta di un arbitro è, prima di tutto, una scelta strategica e viene effettuata intuitu personae, in questo senso le informazioni inerenti agli arbitri diventano di particolare importanza e rilievo come le competenze professionali, le specializzazioni, i precedenti lodi emessi, le pubblicazioni, esperienza come difensori ecc. Infatti, in questo contesto le nuove tecnologia possono facilitare la disegnazione degli arbitri a seguito di una analisi dei dati del professionista, accelerando così la selezione del soggetto e, nel caso di arbitrato amministrato, è in grado di rendere ancora più trasparente la disegnazione dell’arbitro da parte dell’istituzione arbitrale[21]. Esistono già degli strumenti utilizzabili nella disegnazione degli arbitri come: GAR Arbitrator Research Tool[22] e Arbitrator Intelligence[23].
  • Altra attività nella quale può essere impegnata l’IA è quella di traduzione automatica e di traduzione simultanea: ad esempio, si pensi a una testimonianza diretta in lingua straniera nei confronti della quale il sistema di IA potrebbe garantire l’immediata traduzione e successiva verbalizzazione.

3.b)Argomentazioni contrarie alla sostituzione degli esseri umani con l’intelligenza artificiale

  • La qualità del lavoro umano: Il lavoro umano in generale, e quello legale/giuridico in particolare, è molto più complicato di quanto non sembri. Non sarebbe affatto semplice scrivere e addestrare un algoritmo a svolgere, ad esempio, l’attività di consulenza legale come lo farebbe un avvocato esperto.
  • Le macchine dipendono dai programmatori: Attualmente i sistemi di intelligenza artificiali vengono elaborati e sviluppati da parte di programmatori, ovvero, soggetti esperti in materia informatica e tecnologica, i quali sono in grado di definire gli algoritmi in base ai quali il programma deve decidere il caso concreto. L’utilizzo dell’intelligenza artificiale nei procedimenti arbitrali (e non solo) potrebbe così risultare “pericoloso” in quanto darebbe troppo potere e flessibilità ai soggetti programmatori di decidere gli algoritmi di base e di decidere così le sorti delle persone nei procedimenti arbitri, pur in mancanza di una specifica preparazione nelle materie su cui l’IA dovrà poi “lavorare”[24].
  • Le decisioni dell’IA possono essere prevenute: L’intelligenza artificiale viene ampiamente criticata da molti per essere pervenuta nelle sue scelte Facciamo alcuni esempi: nel 2015 le immagini della piattaforma di ricerca Google[25] hanno iniziato ad assimilare alcuni soggetti di etnia africana a esemplari appartenenti al mondo animale, come i gorilla; dopo l’uscita del gioco Pokemon Go molti utenti hanno notato che c’erano meno posizioni disponibili nei quartieri dove la maggior parte della popolazione era prevalentemente di colore nera e su LinkedIn alle donne venivano mostrati, con meno frequenza rispetto agli uomini, gli annunci di lavori meglio retribuiti. Infine, vi è l’esempio del concorso di bellezza AI, un’iniziativa dello Youth Laboratories, un istituto di ricerca russo-cinese: in pratica, i partecipanti dovevano scattare un selfie senza trucco, occhiali e barba e caricarla direttamente sull’applicazione del concorso. Il risultato:oltre 6000 selfie, provenienti da più di 100 paesi sono stati scattati e caricati sull’appe le macchine hanno scelto 44 vincitori, divisi per età e sesso. Il risultato era però alquantocontroverso: quasi tutti i vincitori erano bianchi, alcuni dei vincitori erano asiatici e solo una persona aveva la pelle scura. Nonostante l’apprendimento automatico possa migliorare con l’uso, durante le sue fasi iniziali tale apprendimento potrebbe inevitabilmente subire pregiudizi inaspettati derivanti dallo studio dei casi precedenti. A tal proposito, sono già visibili gli sforzi per cercare di correggere i pregiudizi derivanti dall’intelligenza artificiale esono stati elaborati alcuni programmi a tale scopo, come ad esempio, Diversity.ai[26] e Open.ai[27]. Tuttavia, la maggior parte di questi programmi sono ancora alla loro fase iniziale di elaborazione e sviluppo[28].
  • Il mancato rispetto del principio fondamentale del giusto processo: Il giusto processo è un principio fondamentale del procedimento arbitrale, internazionale ma anche nazionale. Si potrebbe dubitare del fatto che l’IA sia in grado di garantire il rispetto di tale principio in un procedimento arbitrale È necessario che l’IA venga specificatamente programmata per rispettare tale principio fondamentale. Facciamo alcuni esempi: il sistema di intelligenza artificiale potrebbe essere programmato in modo da dare uguale tempo alle parti durante le udienze, potrebbe inoltre essere programmato per respingere l’eccessivo numero di pagine precedentemente concordato per le osservazioni e potrebbe infine essere programmato per avvisare e comunicare alle parti circa la loro opportunità di commentare le prove e le comunicazioni[29].
  • L’umanità delle azioni come elemento fondamentale: L’aspetto umano nella risoluzione delle controversie non deve essere mai trascurato. Il giudizio umano è radicato, almeno in teoria, nel riconoscimento universale dell’uguaglianza delle persone. L’applicazione e il rispetto della decisione di un giudice, così come della decisione di un arbitro, sono facilitate grazie all’accettazione di un fattore culturale determinato dalla presenza di giudici umani. Probabilmente in questa fase storico-culturale ci sarebbe più soddisfazione emotiva nel disporre di un’aggiudicazione da parte di un soggetto essere umano, stimato sulla propria controversia, che un’aggiudicazione da parte di un arbitro dotato di intelligenza artificiale. In sostanza siamo più propensi ad accettare la decisione presa da un soggetto simile a noi, come lo è un altro essere umano che svolge la funzione di giudice o arbitro[30]. La situazione potrebbe cambiare dal momento in cui aumenterà la fiducia degli esseri umani nei sistemi di intelligenza artificiale fino al punto in cui ci fideremo di più delle macchine che degli esseri umani. L’IA ha dimostrato infatti un enorme successo nel trattamento di pazienti affetti di DPTS (Disturbo post traumatico da stress). Si trattava di un sistema in grado di ascoltare senza pregiudizi e di porre le domande appropriate ai pazienti: si chiama Ellie[31] ed è una terapista virtuale creata dall’Institute for Creative Technologies della University of Southern California e finanziata dalla Defense Advanced Research Projects Agency (DARPA) per curare i veterani che soffrono di DPTS. Ellie è molto brava nell’ascolto e nel fornire risposte ma non offre alcun trattamento medico specifico, non essendo essa un sostituto di un terapista umano. I pazienti hanno dimostrato più disponibilità ad aprirsi e avere fiducia nell’IA.
  • La “scatola nera” dell’IA: Qual è il processo logico di una macchina quando prende una decisione? In che modo e perché un programma arriva alle decisioni che prende? Il programma si limita ad analizzare casi precedenti, l’uso di parole o di gruppi di parole per poter fare le sue previsioni senza che nessuno sappia spiegare nel dettaglio come lo riesca a fare? Ecco uno dei problemi principali legati all’intelligenza artificiale: il problema della scatola nera dell’IA. Fornire ragioni e motivazioni è una delle caratteristiche fondamentali del processo decisionale in generale e delle decisioni giuridiche in particolare. La motivazione è elemento essenziale del lodo arbitrale in Italia (l’art. 823 c.p.c. recita che “Il lodo deve contenere… l’esposizione sommaria dei motivi) e non solo (a livello internazionale si vede l’art. 31.2 della Legge Modello UNCITRAL il quale recita che The award shall state the reasons upon which it is based, unless the parties have agreed that no reasons are to be given…”). In primo luogo, le ragioni e i motivi della decisione aiutano la parte soccombente a capire perché ha perso: ciò rende la decisione più accettabile (si parla in questo caso di obiettivo di legittimità). In secondo luogo, la motivazione consente a tutte le parti della controversia e ai terzi di adattare il loro comportamento in futuro (si tratta dell’obiettivo di incentivazione). Infine, le ragioni consentono ai soggetti decisori di seguire la stessa logica e di spiegare il punto di partenza della propria (obbiettivo di coerenza)[32]. La necessità di decisioni motivate può quindi, in futuro, costituire una barriera importante per il processo decisionale legale basato sull’intelligenza artificiale. Attualmente la presenza di un essere umano (giudice o arbitro che sia) è estremamente necessaria per prendere decisioni “significative” e fornire ragioni che possono essere comprese dagli esseri umani.

Processo decisionale e intelligenza artificiale:
Esempi degli studi della Corte EDU e della Corte Suprema degli Stati Uniti

Diversi studi in ambito giudiziario hanno dimostrato come l’intelligenza artificiale possa essere applicata per prevedere ex ante il contenuto di una decisione. Prendiamo in considerazione due esperimenti significativi:

  • Algoritmo elaborato nel 2016 ad opera dell’University College of London[33]: aveva ad oggetto le decisioni della Corte EDU, in particolare le decisioni relative agli art. 3 (divieto di tortura), 6 (diritto a un equo processo) e 8 (rispetto della vita privata e famigliare) della Convenzione Europea dei Diritti dell’Uomo[34] [35]. Esso si concentrava sulle informazioni testuali contenute nelle decisioni mediante l’elaborazione del linguaggio naturale e l’apprendimento automatico. Gli input che venivano inseriti nel programma erano rappresentati dai testi delle decisioni, seguendo la consueta struttura di queste ad esclusione della parte in cui la Corte EDU annuncia l’esito del caso (che viene volutamente esclusa). Lo studio si poneva come obiettivo quello di prevedere l’accertamento della violazione o non violazione della disposizione da parte dello Stato.
  • Algoritmo elaborato nel 2017 ad opera di alcuni ricercatori[36]: aveva ad oggetto le decisioni della Corte Suprema degli Stati Uniti d’America di ben due secoli (dal 1861 al 2015[37]). Lo studio prendeva in considerazione quasi esclusivamente decisioni rese in grado di appello e sosteneva che tutte le informazioni richieste al modello per produrre una stima dovrebbero essere conoscibili prima della data della decisione[38]. L’obiettivo dello studio era quello di prevedere l’accoglimento o il rigetto dell’appello della Corte nonché il voto del singolo giudice.

In questi studi si è cercato di capire se l’intelligenza artificiale, una volta addestrata correttamente sulla base di dati precedentemente inseriti nel suo sistema, fosse in grado di prevedere i risultati delle decisioni successive di cui non conosceva l’esito.

I risultati sono stati soddisfacenti. Per quanto riguarda il primo studio, le previsioni della macchina sono risultate attendibili per il 79% dei casi mentre per il secondo studio il 70,2% di affidabilità per le decisioni della Corte e il 71,9% per il voto dei singoli giudici.

Tuttavia, gli studi hanno rilevato diverse limitazioni e punti critici:

  • Studio Corte EDU: Prima di tutto non è chiaro quali parti delle decisioni siano incluse tra gli input forniti, ad esempio, si dubita se il ragionamento giuridico della Corte EDU sia o meno incluso tra i dati input[39]; in secondo luogo, la parte in fatto della decisione potrebbe contenere degli “indizi” sulla decisione finale ed infine, il gruppo di parole utilizzate più frequentemente dalla Corte EDU con alto valore predittivo, in certi casi sono termini del tutto casuali mentre in altri casi sono termini molto specifici, e così difficilmente utilizzabili in un unico modello di prevedibilità ex ante della decisione. Si conclude così che di fronte a un risulto positivo nei 79% dei casi, un’analisi più approfondita delle modalità impegnate mette in dubbio la possibilità di previsione ex ante dei risultati[40].
  • Studio Corte Suprema degli Stati Uniti: La prima limitazione riguarda la conoscibilità di tutte le informazioni rilevanti al fine della decisione, in quanto molte di queste si possono conoscere solo poco prima che la decisione venga resa; in secondo luogo, la maggior parte delle decisioni prese in considerazione sono state rese dalla Corte in grado di appello ovvero un modello difficilmente esportabile nell’ipotesi in cui a decidere sia un giudice di merito ed infine, il modello predittivo è di tipo binario (o si ha l’accoglimento oppure il rigetto) che risulta essere difficilmente applicabile a decisioni di tipo non-binarie.

In conclusione, entrambi gli studi presentano limiti importanti alla loro applicabilità per la previsione delle decisioni ex ante e fanno sorgere dubbi sul fatto che l’intelligenza artificiale e gli strumenti di previsione dei risultati basati sull’apprendimento automatico potrebbero non essere utili al processo decisionale umano.

Modelli predittivi e arbitrato? Le limitazioni di tale applicazione sulla base della classificazione delle quattro V dei big data (volume, varietà, velocità e veridicità)

Per quanto riguarda invece l’applicazione dei modelli predittivi nel procedimento arbitrale, si possono sin da subito sollevare alcune limitazioni legate alle quattro V dei big data:

  • Volume: Forse uno degli ostacoli più ardui ai fini dell’introduzione dell’intelligenza artificiale nell’arbitrato riguarda proprio la riservatezza. Infatti, i lodi nell’arbitrato commerciale internazionale e negli arbitrati nazionali non vengono generalmente pubblicati e di fronte a un set dati molto limitato sarebbe estremamente difficile riuscire ad addestrare un programma al fine di prevedere i risultati di un procedimento arbitrale[41]. Questo tuttavia non vuol dire che i modelli predittivi nell’arbitrato commerciale internazionale siano impossibili. A tal proposito, esistono già delle iniziative volte alla pubblicazione dei lodi commerciali su una base regolare[42]. Inoltre, anche senza pubblicare i risultati finali, le istituzioni arbitrali potrebbero raccogliere e rendere disponibili, con i dovuti accorgimenti, i lodi riservati allo scopo di costruire un modello di intelligenza artificiale[43].
  • Varietà: Altra limitazione circa le decisioni giuridiche adottate da un’IA riguarda la varietà dei dati di La domanda da affrontare riguarda l’immissione dei dati e in che misura i modelli decisionali richiedano schemi ripetitivi o sarebbero, al contrario, in grado di trattare argomenti complessi e non ripetitivi. Rispetto all’ultimo punto: più sono i valori anomali e non ripetitivi, maggiori sono le difficoltà che incontrerà il sistema di IA. Perciò, nell’arbitrato internazionale è più probabile che i sistemi di IA vengano utilizzati nell’ambito dell’arbitrato internazionale sugli investimenti, dove le questioni sollevate sono di gran lunga note, rispetto all’arbitrato commerciale internazionale che invece affronta spesso questioni diverse tra di loro.[44]
  • Velocità: La terza limitazione riguarda il fattore velocità che fa riferimento alla frequenza dei dati in arrivo che devono essere elaborati. Purtroppo, con il passare del tempo, le decisioni adottate sia da un giudice ordinario sia da parte di un arbitro o di un tribunale arbitrale, potrebbero non essere tra loro coerenti, uguali e frequenti e si potrebbe avere un cambiamento nella politica decisionale in modo che i dati raccolti precedentemente risultino obsoleti rispetto alle nuove decisioni. Ciò solleva la questione di come l’intelligenza artificiale possa gestire questo cambiamento politico: è vero che l’essenza dell’apprendimento automatico è proprio la capacità di migliorarsi con il passare del tempo ma è anche vero che tale miglioramento si basa su dati del passato con la conseguenza che i sistemi di IA mantengono approcci “conservativi” in linea con i casi precedentemente decisi[45].
  • Veridicità: Infine, la quarta e ultima limitazione riguarda la veridicità, ovvero, l’accuratezza e l’affidabilità dei dati utilizzati e nel contesto dell’IA. La domanda è se esistono dati nascosti che potrebbero influenzare e compromettere l’accuratezza del modello. Da una parte, come visto in precedente, l’IA viene sovente criticata per essere prevenuta nelle sue decisioni, determinando così un alto rischio di distorsione. Tuttavia, d’altra parte, si potrebbe presumere che i modelli di intelligenza artificiale abbiano l’ingente vantaggio dell’oggettività algoritmica e dell’infallibilità rispetto agli esseri umani che invece sono pesantemente influenzati da fattori soggettivi non razionali. Diversi studi nell’ambito della psicologia, scienze cognitive ed economia hanno dimostrato che gli esseri umani non riescono ad agire razionalmente[46]. Uno di questi studi aveva ad oggetto le domande di libertà condizionale proposte nei confronti di giudici israeliani: lo studio ha dimostrato che la probabilità di ottenere una decisione favorevole è significativamente più alta dopo la pausa pranzo dei giudici[47]. Infatti, il principale fattore studiato era irrazionale (la fame): prima di pranzo il giudice ha fame e quindi ci sono più probabilità che non accolga la domanda mentre invece dopo pranzo, quando il giudice ha la pancia piena, è più probabile che accolga la domanda. I programmi di IA, a differenza degli esseri umani, non hanno fame e non provano alcun tipo di emozione o sentimento, caratteristica che li permette di non essere influenzati da fattori irrazionali nel momento in cui devono prendere decisioni[48].

Anche l’applicazione dei modelli predittivi nel procedimento arbitrale solleva troppi dubbi e incertezze e potrebbe quindi non risultare utile. Questo tuttavia non vuol dire che i modelli predittivi non possono trovare applicazione nel procedimento arbitrale: anziché sostituire l’essere umano con l’intelligenza artificiale nel processo decisione, non sarebbe forse meglio utilizzare i modelli predittivi a sostegno del procedimento arbitrale?[49]

Il futuro dell’intelligenza artificiale nell’arbitrato

Gli sviluppi tecnologici in campo giudiziario e arbitrale non dovrebbero essere ignorati. Si suggerisce, per il futuro, che nuove leggi e modifiche procedurali inerenti all’uso di queste tecnologie vengano eseguite[50]. Alcuni esperti del mondo giuridico[51] concordano sul fatto che la strada da percorrere dovrebbe essere quella di lavorare insieme alla tecnologia e non già contro di essa.

Anche se rimane forte l’attaccamento all’arbitrato tradizionale, il futuro sembra essere diretto proprio nel senso di queste tecnologie e gli organi arbitrali competenti devono tener conto di questo cambiamento. Ad esempio, servirebbe più chiarezza sulla possibilità di ammissione o meno dell’arbitro dotato di intelligenza artificiale e in questo senso, le camere arbitrali potrebbero fornire aiuto nella realizzazione di modelli di clausole arbitrali che potrebbero prevedere un arbitrato a due livelli a seconda dell’importo della controversia[52]. I governi, infine, potrebbero prevedere meccanismi che favoriscono una maggior integrazione con i sistemi di intelligenza artificiale in modo che le loro decisioni, una volta adottate, vengano verificate da un essere umano, riducendo così i tempi e gli sforzi necessari per una redazione manuale “umana” di un lodo: in questo modo l’IA sostituirebbe l’essere umano solo in alcune funzioni[53].

In conclusione, serve un sempre più forte e ricorrente incoraggiamento ai professionisti dell’arbitrato sulla possibilità di discutere e comprendere le conseguenze derivanti dalla presenza di arbitri dotati di intelligenza artificiale nel procedimento arbitrale, in quanto solo gli esseri umani, (che a loro volta compongono la comunità arbitrale), a differenza delle macchine, sono in grado di esprimere i propri bisogni, necessità, perplessità e quindi di spiegare il proprio ragionamento e le proprie decisioni[54].

Dopo tutto, “Il vero pericolo non è che inizino a pensare come gli uomini, ma che gli uomini inizino a pensare come i computer.” [55]
[1] SCHERER M., Chapter V: The Vienna Innovation Proposition, International Arbitration 3.0 – How Artificial Intelligence will change Dispute Resolution, in Austrian Yearbook on International Arbitration, 2019, pag. 507-509
[2] Art. 816-bis, comma 4 c.p.c.
[3] JOHNSON D., Find Out If a Robot Will Take Your Job. Documento consultabile al sito: https://time.com/4742543/robots-jobs-machines-work/. Sul link indicato è possibile calcolare la percentuale di sostituzione del proprio lavoro da parte di un robot (se questo è incluso all’interno dell’elenco fornito del sito).
[4] McKinsey & Company è una multinazionale di consulenza strategica.
[5] L’immagine a destra è tratta dal test online indicato nella nota 64 e nel quale ho inserito la professione avvocato. Sono disponibili molte altre professioni.
[6] Il sito ufficiale di ROSS è https://www.rossintelligence.com/
[7] SIM C., Will Artificial Intelligence Take over Arbitration? in Asian International Arbitration Journal, 2018, pag. 6-8 e PIAZZOLLA A., Ross l’avvocato progettato dalla IBM, documento consultabile al sito:https://sciencecue.it/ross-lavvocato-progettato-dalla-ibm/9485/
[8] SIM C., op. cit., pag. 2.
[9] Convenzione per il riconoscimento e l’esecuzione delle sentenze arbitrali straniere del 1958.

[10] Forse per il semplice fatto che quando è stata scritta, nel 1958, la possibilità che parti potessero nominare arbitri dotati di intelligenza artificiale era inverosimile per essere affrontata (Cfr. SIM C., op. cit., pag. 3-4).

[11] Ley Num. 19.971 Sobre Arbitraje Comercial Internacional. Documento consultabile al sito: https://www.leychile.cl/Navegar?idNorma=230697

[12] Ley num. 1563 Normas generales del arbitraje nacional. Documento consultabile al sito: http://www.oas.org/es/sla/ddi/docs/Colombia%20-%20Estatuto%20de%20Arbitraje%20Nacional%20e%20Internacional.pdf

[13] Arbitraje y Otros Procedimientos Alternativos de Solución de Controversias Comerciales, México, Código de Comercio, Título Cuarto – Del Arbitraje Comercial. Documento consultabile al sito: http://www.sice.oas.org/DISPUTE/COMARB/Mexico/codcos.asp

[14] In questo senso DE LA JARA J., PALMA D., INFANTES A. (Bullard Falla Ezcurra), Machine Arbitrator: are you ready? Documento consultabile al sito: http://arbitrationblog.kluwerarbitration.com/2017/05/04/machine-arbitrator-are-we-ready/

[15] Infatti, l’art. 20 della Ley general de Arbitraje n° 26575 recita che “Los árbitros serán designados por las partes o por un tercero, quien puede ser persona natural o jurídica, incluida una institución arbitral. La designación deberá ser comunicada a la parte o partes, según el caso, inmediatamente después de efectuada”. Documento consultabile al sito: http://www.justiciaviva.org.pe/acceso_justicia/arbitraje/1.pdf

[16]Infatti, l’art. 19 della Codificacion de la Ley de Arbitraje y Mediacion recita che “No podrán actuar como árbitros las personas que carezcan de capacidad para comparecer por sí mismas en juicio. Son causas de excusa de los árbitros las previstas en el Código de Procedimiento Civil para los jueces. El árbitro que conociera que está incurso en inhabilidad para ejercer su cargo notificará inmediatamente al director del centro de arbitraje o a las partes que lo designaron para que procedan a reemplazarlo.”. Documento consultabile al sito: http://www.oas.org/es/sla/ddi/docs/Ecuador%20-%20Ley%20de%20Arbitraje%20y%20Mediaci%C3%B3n.pdf

[17] In questo senso NG (HUANG YING) I e BENEDETTI DEL RIO V., Chapter 8: When the tribunal is an Algorithm: Complexities of Enforcing Orders Determined by a Software under the New York Convention, in 60 Years of the New York Convention: Key Issues and Future Challenges, 2019, pag. 132-133.

[18] SIM C., in op. cit., pag. 5-6.

[19] SIM C., in op. cit., pag. 6-8

[20]Per ulteriori informazioni: https://www.clausebuilder.org/cb/faces/index;jsessionid=U_YlASOLxuMeiOEJv4MUYFLOaoibfiKAQ6d7As8Bpr6T5Cft5EYk!-2072942218!436302011

[21] Avv. COZZI F., L’impatto delle nuove tecnologie sul procedimento arbitrale: processi, criticità e prospettive nell’esperienza internazionale, intervento tenuto durante il Convegno promosso da Arbitrando “La risoluzione dei conflitti nell’era digitale: L’arbitrato e la rivoluzione tecnologica”, Milano, 21 novembre 2019 – Fondazione Stellina.

[22] Per ulteriori informazioni e dettagli: https://globalarbitrationreview.com/arbitrator-research-tool

[23] Per ulteriori informazioni e dettagli: https://arbitratorintelligence.com/

[24] Tuttavia, secondo alcuni, tale teoria potrebbe essere facilmente superata prendendo in esempio un programma di apprendimento automatico (dotato di intelligenza artificiale) chiamato DeepMind[24], il quale aveva imparato a giocare ad “Atari breakout”, un gioco per computer degli anni ‘70 e ’80. L’obiettivo del gioco era quello di far rimbalzare una palla (rappresentata da un punto grigio) contro un muro di mattoni usando il cursore (rappresentato dalla linea grigia in basso a destra) e rompere il maggior numero di mattoni possibile. Si ricorda che al computer non è stata data alcuna conoscenza preliminare sul gioco né molto meno è stato detto come si gioca e come far spostare la palla, l’unica informazione fornita era che doveva massimizzare i punti. Il video mostra tre diverse fasi del DeepMind che impara da zero come giocare questo gioco: nella prima fase il computer non è in grado di muovere la palla e utilizza in modo molto impacciato il cursore; dopo solo due ore il computer è in grado di giocare come un esperto e colpisce abilmente e con la massima velocità la palla contro il muro di mattoni ed infine, DeepMind dopo quattro ore riesce a scoprire la soluzione per ottenere il massimo del punteggio ovvero quello di scavare un tunnel attraverso il muro di mattoni in modo che la palla colpisca il muro dall’alto anziché dal basso (sulla piattaforma youtube è disponibile un video di DeepMind mentre gioca). Sulla base di questo esempio si può concludere che il programma di intelligenza artificiale in questione non sapeva come giocare a “Atari Breakout” ma ha imparato, con la pratica, a farlo successivamente, ovvero il programma da solo ha deciso l’inferenza che avrebbe tratto dagli eventi nelle sue decisioni e nessun programmatore ha deciso questo progredire (Cfr. SCHERER M., Chapter V, cit., pag. 511-512).

[25] ZHANG M., ‘Google Photos Tags Two African-Americans As Gorillas Through Facial Recognition Software’, documento consultabile al sito: https://www.forbes.com/sites/mzhang/2015/07/01/google-photos-tags-two-african-americans-as-gorillas-through-facial-recognition-software/#4d4e7a3713d8

[26] Programma disponibile al sito: http://diversity.ai/

[27] Programma disponibile al sito: https://openai.com/

[28] SIM C., op. cit., pag. 9-10.

[29] Soluzioni suggerite da SIM C. op. cit. pag. 10-11.

[30] SIM C., op. cit., pag. 11-12.

[31] Per ulteriori informazioni su Ellie andare sul sito della University of Southern California’s, consultabile all’indirizzo: http://ict.usc.edu/prototypes/simsensei/

[32] SCHERER M, Artificial Intelligence and Legal Decision-Making: The Wide Open?, in Journal of International Arbitration, 2019, pag. 562-563 e SCHERER M., Chapter V, cit., pag. 510-512.

[33] ALETRAS N., TSARAPATSANIS D., PREOTIUC-PIETRO D., LAMPOS V.., Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective, documento consultabile al sito: https://peerj.com/articles/cs-93/

[34] Gli articoli 3, 6 e 8 sono stati scelti perché riguardavano il maggior numero delle decisioni della Corte EDU e quindi erano in grado di fornire dati sufficienti per l’addestramento del programma.

[35] Lo studio era stato progettato per verificare la frequenza di parole o di gruppo di parole e successivamente attribuire un relativo peso predittivo a queste in confronto al risultato: violazione o meno della disposizione in questione. Ad esempio, le parole usate più frequentemente con un alto valore di previsione nell’art. 3 erano “infortunio”, “danno”, per l’art. 6, “ricorso”, “esecuzione”, “limite” e ai sensi dell’art. 8 “figlio”, “corpo”, “attacco” ecc.

[36] KATZ D. M., BOMMARITO M. J. II, BLACKMAN J., A general approach for predicting the behavior of the Supreme Court of the United States, documento consultabile al sito: https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0174698

[37]Si trattava di un numero di input di oltre 28.000 risultati di casi e oltre 240.000 voti dei singoli giudici (un numero molto superiore rispetto a quello dello studio precedente).

[38] SCHERER M., Artificial, cit., pag. 551.

[39] Chiunque, infatti, sarebbe in grado di prevedere al 100% la decisione della Corte dopo aver ricevuto il ragionamento di essa, ma il problema è che il ragionamento giuridico della Corte EDU non può essere disponibile ex ante e pertanto non può essere incluso nella previsione dei casi futuri.

[40] SCHERER M., Artificial, cit., pag. 550 e Avv. Cozzi F., op. cit.

[41] SCHERER M., Chapter V, cit., pag. 509.

[42] Vedi infatti l’esempio dell’ICC, nel documento Note to Parties and Arbitral Tribunals on the Conduct of the Arbitration Under the ICC Rules of Arbitration, paragrafo 42-43, 1gennaio 2019. Documento consultabile al sito: https://iccwbo.org/publication/note-parties-arbitral-tribunals-conduct-arbitration/

[43] Soluzione proposta da SCHERER M., Artificial, cit., pag. 554-555.
[44] SCHERER M., Artificial, cit., pag. 555-556.
[45] SCHERER M., Artificial, cit., pag. 557.

[46] Si veda, ad esempio, JOLLS C., SUNSTEIN C. e THALER R., A Behavioral Approach to Law and Economics, documento consultabile al sito: https://chicagounbound.uchicago.edu/cgi/viewcontent.cgi?article=12172&context=journal_articles, e TOR A., The Methodology of the Behavioral Analysis of Law, Haifa Law Review, documento consultabile al sito: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1266169. Sono esempi forniti da SCHERER M., Artificial, cit., pag.

[47] SCHERER M., Artificial, cit., pag. 557.

[48] SCHERER M., Artificial, cit., pag. 558-562.

[49] SCHERER M., Artificial, cit., pag. 554.

[50] In questo senso J. de la Jara, D. Palma, Alejandra Infantes (Bullard Falla Ezcurra), op. cit e NG (HUANG YING) I. e BENEDETTI DEL RIO V., op. cit., pag. 133-134.

[51] Per quanto riguarda la Francia vedi HAERI K., CHALLAN-BELVAL S., HANNEZO E. & LAMON B., L’avenir de la profession d’avocat, 2017, documento consultabile al sio: www.justice.gouv.fr/publication/rapport_kami_haeri.pdf e per quanto riguarda gli Stati Uniti D’america, vedi American Bar Association Commission on the Future of Legal Services, Report on the Future of Legal Services in the United States, 2016, documento consultabile al sito: https://www.americanbar.org/content/dam/aba/images/abanews/2016FLSReport_FNL_WEB.pdf,

[52] Le parti potrebbero essere più tranquille nell’affidare controversie di modico valore a arbitri algoritmi e controversie di importo più sostanzioso invece ad arbitri essere umani.
[53] Queste soluzioni vengono fornite da NG (HUANG YING) I. e BENEDETTI DEL RIO V., op. cit., pag. 133-134.
[54] In questo senso DE LA JARA J., PALMA D., INFANTES A. (Bullard Falla Ezcurra), op. cit.
[55] Sydney Harris, giornalista statunitense.

A cura della dott.ssa Melissa Trevisan 
Trainee Lawyer
Studio Mainini & Associati