Era digitală și justiția (II). Obstacole generale în calea dezvoltării IA în justiție. Condițiile pentru a avea instrumente de IA eficiente în justiție

Vezi și Era digitală și justiția (I). Obiective, metode de proiectare a algoritmilor și consecințe ale folosirii IA în justiție

1. Introducere

Pentru a reprezenta un ajutor eficient în materie de justiție, IA trebuie să fie supusă unor constrângeri permanente, pe tot parcursul procesului său de creare și implementare. Specialiștii IT și juriștii au identificat anumite riscuri și obstacole inerente folosirii IA în justiție[1], precum și condițiile necesare unei utilizări sănătoase și eficiente a noilor tehnologii, astfel încât dezvoltarea acestora în mediul judiciar să nu conducă la inechitate sau nedreptate.

IA poate ajuta în mod semnificativ accesul la informație, algoritmii pot să prezică soluții mai bine decât un om, iar soluția matematică are, de regulă, un efect intimidant, căruia este greu să nu i te supui. Dar la ce bun? din moment ce noi nu știm cum se face predicția și de ce o dorim… căci motivarea este cea care conferă legitimitatea soluției. Așadar, prezicerea nu poate deveni un scop în sine.

Este fundamentală o înțelegere încrucișată a datelor și a problemelor, printr-un dialog constant între cei care pot concepe și cei care pot folosi IA în justiție. Această interacțiune va fi facilitată dacă profesioniștii din ambele domenii sunt conștienți de aceste probleme din faza incipientă de pregătire și dacă o parte dintre ei se specializează în ele.

 

2. Obstacole generale în calea dezvoltării IA în justiție

Riscurile folosirii IA în justiție sunt generate de alegerea bazei de învățare, de evoluția algoritmilor, de particularitățile și complexitatea activității judiciare. Învățarea automată, care caracterizează aplicațiile IA, nu este conștientă de complexitatea unor subiecte socio-umane (interpretarea legii, a fenomenelor sociale) și poate crea mai multe probleme decât soluții.

Aceste riscuri și limitări sunt interdependente, se susțin și se potențează unele pe altele.

 

a) Riscul „supraînvățării”

Majoritatea algoritmilor de învățare se bazează pe baze de date în care se află înregistrat un număr mare de răspunsuri umane la cazuri specifice. Formula de predicție produsă de un algoritm este o funcție de învățare. Prin urmare, formula de predicție depinde de baza de învățare, ceea ce generează riscul „supraînvățării” sau generalizarea formulei de predicție. Pentru informaticieni nu este dificil să creeze o funcție care să nu facă nici o eroare asupra tuturor cazurilor care constituie baza de date: este suficient să învețe „pe de rost” toate aceste cazuri. Însă, o astfel de formulă produce o predicție nepotrivită pentru un caz care nu se află în baza de date.

O practică obișnuită, numită „validare încrucișată”, constă în separarea bazei de date în două: cazurile din prima parte utilizate pentru a stabili formula de predicție și cazurile din partea a doua fiind folosite pentru a evalua performanța formulei în cazuri noi. Această abordare face posibil controlul capacității de „generalizare” a formulei de predicție.

 

b) Riscul „opacității” formulei de predicție

De regulă, „predictorii” furnizați de IA funcționează ca niște cutii negre atât pentru utilizatorul-jurist, cât și pentru justițiabil: complexitatea formulei de predicție împiedică înțelegerea acesteia și anticiparea unei soluții doar la simpla vedere a formulei. Justițiabilul nu are capacitatea de a cunoaște, de fapt, regula care îi este aplicată. Și aici se naște întrebarea: este suficientă încrederea în obiectivitatea mașinii pentru a justifica ignoranța în care se găsește destinatarul deciziei? O soluție ar consta în face public predictorul, astfel încât fiecare participant procesual să poată dobândi cel puțin o cunoaștere empirică a previziunilor oferite de mașină. Însă, chiar dacă inițial este posibil să înțelegi o formulă învățată pe o primă bază de date, ulterior – pe măsură ce devin disponibile noi decizii sau opinii – comportamentul algoritmului va fi modificat, astfel încât dobândirea unei înțelegeri în timp real va fi dificilă.

 

c) Incapacitatea de a da sens hotărârilor judiciare

Unul din principalele obstacole în calea utilizării pe scară largă a IA în probleme de justiție este incapacitatea de a da sens hotărârilor judiciare. Formalismul matematic este performant pentru sarcini foarte specializate, dar nu poate dezvălui complexitatea raționamentului juridic[2], nu poate explica deciziile instanțelor și comportamentul judecătorilor[3].

Această problematică este riguros analizată și în Carta Etică a CEPEJ (Commission européenne pour l’efficacité de la justice)[4].

Astfel, specialiștii ne atrag atenția că obiectivul principal al proiectanților de algoritmi nu este să înțeleagă funcționarea modelelor construite automat de computer, ci să se asigure că aparatul reușește să se apropie treptat de rezultatele așteptate. Utilizate în medii închise, cu date cuantificabile, rezultatele pot fi impresionante. Însă, formalismul matematic este dificil de aplicat în medii deschise și mai greu de cuantificat: atunci când se încearcă măsurarea fenomenelor sociale „este mult mai dificil să se găsească o relație stabilă” decât în științele naturii[5], căci aceste sisteme de calcul complexe nu sunt replici ale creierului uman (care include procese perceptive, învățare, autoorganizare, adaptare)[6].

Specificul activității judecătorului uman rezidă în metoda de raționament pe care acesta o pune în operă. Acest raționament, cunoscut sub numele de silogism judiciar, este piatra de temelie în funcționarea justiției umane. Într-un mod simplificat, implică trei pași de reflecție în fiecare situație prezentată judecătorului: examinarea faptelor cauzei (este „minorul”); căutarea regulii de drept aplicabile faptelor (este „majorul”); aplicarea regulii la fapte (aceasta este concluzia silogismului).

Raționamentul silogic trebuie să apară în motivarea hotărârii judecătorești, fiind cea care permite destinatarului să fie sigur de existența și fundamentul raționamentului judecătorului, de capacitatea sa de a include, în sistemul normelor juridice identificabile, elemente de fapt complexe. Așadar, motivarea asigură transparență. Este garanția că decizia luată este direct legată de litigiu și calificarea juridică dată situației este corectă.

În aceste condiții, se observă limitele aplicării algoritmilor în justiție, deoarece fazele esențiale ale raționamentului nu mai sunt „vizibile” și inteligibile.

Apoi, silogismul judiciar nu reflectă întreaga motivație folosită judecător, care este punctată uneori de interpretări și alegeri subiective, ascunse sau chiar inconștiente și care nu poate fi formalizată a priori. Învățarea automată este ineficientă în realizarea acestei munci de interpretare, proiectanții sperând cel mult că detectarea regularității în contexte lexicale reușește să reproducă la ieșire aceleași efecte ca procesul de luare a deciziilor care a produs aceste date.

Este semnificativ experimentul făcut de o echipă de cercetători englezi și americani[7], specialiști în informatică, psihologie pozitivă, știința informației și drept, care a dezvoltat un algoritm capabil „să prezică” deciziile Curții Europene a Drepturilor Omului prin corelarea faptelor, argumentelor părților și a legii pozitive relevante. Programul vizează încălcarea a trei articole din Convenția europeană pentru protecția drepturilor omului și a libertăților fundamentale: interdicția torturii și a tratamentelor degradante (art. 3), dreptul la un proces echitabil (art. 6) și dreptul la respectarea vieții private (art. 8). Nu a fost întâmplătoare alegerea jurisprudenței CEDO, căci deciziile Curții pot furniza un eșantion reprezentativ și explică în detaliu faptele, argumentele părților, precum și dispozițiile legale relevante. Prin urmare, pentru fiecare caz, algoritmul a avut la dispoziție suficiente „intrări” pentru a-și îndeplini sarcina.

Rezultatele cercetărilor au fost publicate pe 24 octombrie 2016, într-un articol intitulat „Prezicerea deciziilor judiciare ale Curții Europene a Drepturilor Omului: o perspectivă de procesare a limbajului natural”[8], anunțând că algoritmul creat a reușit să clasifice corect 79% din deciziile Curții Europene a Drepturilor Omului (încălcare sau nu). Analizând aproape 600 de cazuri judecate de Curtea Europeană a Drepturilor Omului, algoritmul a dat aceeași soluție ca magistrații în 8 din 10 cazuri.

Acest experiment de justiție algoritmică este bogat în lecții, generând o serie de întrebări și dezbateri[9]: faptul că un judecător uman și un judecător-robot, în prezența acelorași fapte, conduc adesea la aceleași soluții, nu este dovada că avem deja o justiție cvasi-mecanică? și acest fapt nu ar trebui salutat din punct de vedere al securității juridice și al previzibilității justiției? și dacă, în ceea ce privește cele două cazuri în care deciziile sunt divergente, sentințele judecătorului robotizat sunt cele care decurg cel mai logic din aplicarea strictă a dreptului pozitiv asupra faptelor, în timp ce ale judecătorului uman ar fi dictate de considerații externe, implicite? Apoi, care va fi evoluția profesiilor juridice: înlocuirea magistraților, avocaților, cu mașini „inteligente” care spun legea în mod automat, polițiști-roboți care arestează oamenii (în imaginația tehno-pesimiștilor)? Sau va fi o asociere între magistrați/avocați/notari și aceste mașini „inteligente” – din perspectiva celor mai moderați?

Cele 21% de discrepanțe dintre hotărârile efective și hotărârile furnizate de algoritm arată că și alte elemente, în afară de faptele și dispozițiile legale relevante, joacă uneori un rol decisiv în alegerile magistraților. Dacă luarea deciziilor jurisdicționale ar respecta o logică formală strictă, cercetătorii ar fi reușit să construiască un judecător algoritmic mai performant, în acord cvasi-total cu judecătorul uman.

Originile diferențelor dintre deciziile judecătorului robot și cele ale judecătorului uman, sunt multiple. Comportamentul judiciar este un „puzzle”, ale cărui componente nu au doar forme regulate. Judecătorul american Oliver Wendell Holmes a scris, la sfârșitul sec. XIX, că „viața Dreptului nu este logică; este experiență”[10], iar Jean Carbonnier, unul dintre cei mai mari juriști ai secolului XX, sublinia că „judecătorul este un om și nu o mașină de silogism: la fel de mult cu cunoștințele sale despre reguli și cu logica sa, el judecă cu intuiția și sensibilitatea sa”[11]. Cunoașterea regulilor și a logicii sunt primare, dar intuiția și sensibilitatea joacă un rol complementar, influențând orientarea deciziilor judecătorești mai ales în cele mai dificile cazuri.

În lucrarea menționată[12], cercetătorii indică faptul că „algoritmul a avut tendința de a oferi judecăți eronate atunci când se confruntă cu două cazuri similare care au condus la condamnare și necondamnare”, respectiv atunci când faptele identice sau cel puțin similare sunt tratate diferit în funcție de judecătorii cărora le sunt supuse. Cu alte cuvinte, judecătorul-robot și judecătorul uman au fost de acord mai ales în cazurile centrale și clare, în care regula este aplicabilă cu certitudine, și mai puțin în cazurile pentru care există motive atât pentru a afirma, cât și pentru a nega că se aplică o anumită regulă.

Marja de eroare a judecătorului robot, nu arată cine greșește, ci că judecătorul-robot spune dreptul altfel decât judecătorul uman. Atunci, ar trebui să avem încredere în primul sau în al doilea? Este, credem, dificil să preferi justiția unei mașini decât justiția umană.

S-a susținut că anumite aplicații ale IA pot identifica prejudecăți datorate persoanei magistraților, susceptibile să hrănească suspiciuni de parțialitate. Dar, putem reuși să facem lumină asupra comportamentului judecătorilor pe baza unui tratament algoritmic al apariției numelor lor în anumite hotărâri judecătorești? IA construiește modele încercând să dezvăluie corelații ascunse într-o cantitate mare de date. Dar simpla corelație statistică dintre două evenimente nu este suficientă pentru a explica factorii cu adevărat cauzali. Măsurăm ceea ce poate fi eronat ‒ științific și ideologic, din ambiția de a face deciziile judiciare obiective. Furnizarea unei explicații reale a unei hotărâri ar necesita o analiză mult mai detaliată a datelor fiecărui caz și nu ar putea apărea spontan dintr-o masă de legături lexicale în care apare numele unui magistrat. De exemplu, faptul că un judecător în materie de familie stabilește, mai des statistic, domiciliul unui copil la mamă nu reflectă neapărat o părtinire a acestui magistrat în favoarea femeilor, ci se poate explica și prin existența unor factori sociali, economici și culturali specifici populației din jurisdicția sa.

Riscurile explicațiilor false ale hotărârilor judecătorești sunt, prin urmare, extrem de ridicate. Justiția algoritmică va constitui un fel de memorie mioapă a justiției[13], fiind lipsită de o analiză profundă a elementelor cauzale ale hotărârilor date de judecătorul uman. Valoarea statistică a rezultatelor obținute va rămâne discutabilă în absența unui control real al datelor prospectate și al efectului „cutiei negre” al anumitor algoritmi.

Desigur, există situații pentru care expunerea unor date obiective (timpul de lucru în întreprindere) poate corespunde unui răspuns obiectiv precis (durata concediului plătit). Acestea sunt cazuri în care două sau trei întrebări simple și recurente pot duce la o soluție, fără risc de eroare. Astfel de cazuri, bazate pe un silogism simplu, se pot împrumuta modelării mecaniciste, dar care nu este exact cea adoptată în general de IA. Codul digital al muncii din Franța oferă o astfel de ilustrare[14].

Acest Cod digital al muncii este o platformă online, gratuită, care a început să funcționeze în ianuarie 2020. Pentru a realiza această platformă, o echipă de juriști și specialiști IT au lucrat împreună, timp de aproape doi ani. Introdus prin Ordonanța nr. 2017-1387 privind previzibilitatea și securitatea relațiilor de muncă, scopul codului digital este de a face dreptul muncii – prin utilizarea IA ‒ „accesibil și eficient pentru toți”, deoarece reglementările în domeniu constituie uneori un labirint complex pentru angajați și angajatori. Concret, codul digital al muncii oferă următoarele servicii:

– o bază de date care integrează textele codului muncii și ale principalelor convenții colective, precum și fișe explicative, permițând utilizarea unor cuvinte-cheie în franceza fluentă și nu neapărat în limbaj juridic, pentru a obține trimiterea la documentele care par cele mai potrivite;

– o cutie de instrumente, care include simulatoare pentru calcularea despăgubirilor frecvente care pot fi ușor stabilite din răspunsul la unele date factuale (indemnizații de concediere, preaviz de demisie, salariu brut/net) și modele de acte.

Acest instrument este o bază de date inteligentă, dar nu este destinat efectuării unei analize juridice[15]. Poate da o potrivire textuală unui cuvânt cheie, dar nu poate ajuta la calificarea juridică a faptelor care i-au fost supuse. Apoi, utilizatorul este invitat să răspundă la o serie de întrebări închise care orientează iterativ sistemul. Acest proces imită raționamentul juridic pentru a ajunge la determinarea regulii de drept aplicabile și stabilirea unei (game de) durate sau compensații prevăzute de lege. Dacă situația este atipică, este posibil ca sistemul să nu ofere un răspuns și să sugereze contactarea unui departament juridic.

Pentru a determina textele și reglementările cele mai relevante, sistemul folosește un algoritm analog cu cel al motorului de căutare Google, care se bazează în principal pe asocieri statistice între cuvinte observate într-o bază de date mare. Sistemul s-a bazat inițial pe un algoritm de învățare nesupravegheat, în sensul în care oferă texte „apropiate” de cererea formulată; apoi, un algoritm supravegheat face posibilă o mai bună distincție între răspunsurile utile și cele mai puțin utile.

Acest instrument AI nu este imun la prejudecăți inerente oricărui sistem de învățare (dependent de baza de date de învățare, efect al alegerii unuia sau altuia criteriu de ajustare etc.), dar natura nedecizională a răspunsului pe care îl produce reduce evident consecințele acestor prejudecăți.

Legat de îmbunătățirea acestei platforme, s-a pus întrebarea despre capacitatea de a răspunde, prin integrarea jurisprudenței relevante, la întrebări mai specifice de la utilizatori („Pot fi demis pentru o întârziere la munca?”). Se poate oferi codului digital al muncii capacitatea de a furniza analize și un răspuns juridic la o situație de fapt ridicată de un individ? Opiniile specialiștilor și ale reprezentanților statului sunt în sensul că programului trebuie să-i fie limitate voluntar ambițiile „predictive” la un domeniu clar demarcat și cuantificabil al dreptului muncii; lărgirea ambiției predictive l-ar denatura și ar oferi garanții mai puține cetățenilor.

DOWNLOAD FULL ARTICLE

[1] L. Pécaut-Rivolier, S. Robin, Justice et intelligence artificielle, préparer demain – ep. II, publicat pe Dalloz Actualité, la 15.04.2020.

[2] Y. Meneceur, Intelligence artificielle et mémoire de la justice: le grand malentendu, Les cahiers de la justice 2019 p. 277.

[3] Y. Meneceur, Quel avenir pour une justice prédictive, JCP 2018, Doctr. 190.

[4] Commission européenne pour l’efficacité de la justice (CEPEJ), Conseil de l’Europe, Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires: https://www.coe.int/fr/web/cepej/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in-judicial-systems-and-their-environment.

[5] P. Jensen, Pourquoi la société ne se laisse pas mettre en équation, Éditions du Seuil, 2018.

[6] Y. Meneceur, Intelligence artificielle et mémoire de la justice: le grand malentendu, Les cahiers de la justice 2019, p. 277.

[7] Cercetători provenind de la universități din Londra, Sheffield, Pennsylvania.

[8] N. Aletras, V. Lampos, D. Tsarapatsanis, D. Preotiuc-Pietro, Predicting Judicial Decisions of the European Court of Human Rights: a Natural Language Processing Perspective, Peer Journal of Computer Science, 24 oct 2016 (disponibil pe https://peerj.com/articles/cs-93/).

[9] Pentru un studiu amănunțit, a se vedea: B. Barraud, La croisée des savoirs – Un algorithme capable de prédire les décisions des juges: vers une robotisation de la justice?, Les cahiers de la justice 2017, p. 121.

[10] O.W. Holmes, The Common Law, MacMillan, 1881, p. 1, citat de B. Barraud, op. cit., Les cahiers de la justice 2017 pp. 121-139.

[11] J. Carbonnier, Droit civil vol. I: Introduction, Puf, coll. Quadrige, 2004, p. 23.

[12] N. Aletras, V. Lampos, D. Tsarapatsanis, D. Preotiuc-Pietro, op. cit.

[13] Y. Meneceur, Intelligence artificielle et mémoire de la justice: le grand malentendu, Les cahiers de la justice 2019, p. 277.

[14] https://www.fabrique.social.gouv.fr/startups/code-du-travail-numerique.

[15] Pentru detalii, a se vedea: L. Pécaut-Rivolier, S. Robin, Justice et intelligence artificielle, préparer demain – ep. III, publicat pe Dalloz Actualité, la 17.04.2020.

Era digitală și justiția (II). Obstacole generale în calea dezvoltării IA în justiție. Condițiile pentru a avea instrumente de IA eficiente în justiție was last modified: March 28th, 2022 by Andreea Ciurea

Only registered users can comment.

Arhiva Revista