Era digitală și justiția (II). Obstacole generale în calea dezvoltării IA în justiție. Condițiile pentru a avea instrumente de IA eficiente în justiție
Andreea Ciurea - februarie 4, 20221. Introducere
Pentru a reprezenta un ajutor eficient în materie de justiție, IA trebuie să fie supusă unor constrângeri permanente, pe tot parcursul procesului său de creare și implementare. Specialiștii IT și juriștii au identificat anumite riscuri și obstacole inerente folosirii IA în justiție[1], precum și condițiile necesare unei utilizări sănătoase și eficiente a noilor tehnologii, astfel încât dezvoltarea acestora în mediul judiciar să nu conducă la inechitate sau nedreptate.
IA poate ajuta în mod semnificativ accesul la informație, algoritmii pot să prezică soluții mai bine decât un om, iar soluția matematică are, de regulă, un efect intimidant, căruia este greu să nu i te supui. Dar la ce bun? din moment ce noi nu știm cum se face predicția și de ce o dorim… căci motivarea este cea care conferă legitimitatea soluției. Așadar, prezicerea nu poate deveni un scop în sine.
Este fundamentală o înțelegere încrucișată a datelor și a problemelor, printr-un dialog constant între cei care pot concepe și cei care pot folosi IA în justiție. Această interacțiune va fi facilitată dacă profesioniștii din ambele domenii sunt conștienți de aceste probleme din faza incipientă de pregătire și dacă o parte dintre ei se specializează în ele.
2. Obstacole generale în calea dezvoltării IA în justiție
Riscurile folosirii IA în justiție sunt generate de alegerea bazei de învățare, de evoluția algoritmilor, de particularitățile și complexitatea activității judiciare. Învățarea automată, care caracterizează aplicațiile IA, nu este conștientă de complexitatea unor subiecte socio-umane (interpretarea legii, a fenomenelor sociale) și poate crea mai multe probleme decât soluții.
Aceste riscuri și limitări sunt interdependente, se susțin și se potențează unele pe altele.
a) Riscul „supraînvățării”
Majoritatea algoritmilor de învățare se bazează pe baze de date în care se află înregistrat un număr mare de răspunsuri umane la cazuri specifice. Formula de predicție produsă de un algoritm este o funcție de învățare. Prin urmare, formula de predicție depinde de baza de învățare, ceea ce generează riscul „supraînvățării” sau generalizarea formulei de predicție. Pentru informaticieni nu este dificil să creeze o funcție care să nu facă nici o eroare asupra tuturor cazurilor care constituie baza de date: este suficient să învețe „pe de rost” toate aceste cazuri. Însă, o astfel de formulă produce o predicție nepotrivită pentru un caz care nu se află în baza de date.
O practică obișnuită, numită „validare încrucișată”, constă în separarea bazei de date în două: cazurile din prima parte utilizate pentru a stabili formula de predicție și cazurile din partea a doua fiind folosite pentru a evalua performanța formulei în cazuri noi. Această abordare face posibil controlul capacității de „generalizare” a formulei de predicție.
b) Riscul „opacității” formulei de predicție
De regulă, „predictorii” furnizați de IA funcționează ca niște cutii negre atât pentru utilizatorul-jurist, cât și pentru justițiabil: complexitatea formulei de predicție împiedică înțelegerea acesteia și anticiparea unei soluții doar la simpla vedere a formulei. Justițiabilul nu are capacitatea de a cunoaște, de fapt, regula care îi este aplicată. Și aici se naște întrebarea: este suficientă încrederea în obiectivitatea mașinii pentru a justifica ignoranța în care se găsește destinatarul deciziei? O soluție ar consta în face public predictorul, astfel încât fiecare participant procesual să poată dobândi cel puțin o cunoaștere empirică a previziunilor oferite de mașină. Însă, chiar dacă inițial este posibil să înțelegi o formulă învățată pe o primă bază de date, ulterior – pe măsură ce devin disponibile noi decizii sau opinii – comportamentul algoritmului va fi modificat, astfel încât dobândirea unei înțelegeri în timp real va fi dificilă.
c) Incapacitatea de a da sens hotărârilor judiciare
Unul din principalele obstacole în calea utilizării pe scară largă a IA în probleme de justiție este incapacitatea de a da sens hotărârilor judiciare. Formalismul matematic este performant pentru sarcini foarte specializate, dar nu poate dezvălui complexitatea raționamentului juridic[2], nu poate explica deciziile instanțelor și comportamentul judecătorilor[3].
Această problematică este riguros analizată și în Carta Etică a CEPEJ (Commission européenne pour l’efficacité de la justice)[4].
Astfel, specialiștii ne atrag atenția că obiectivul principal al proiectanților de algoritmi nu este să înțeleagă funcționarea modelelor construite automat de computer, ci să se asigure că aparatul reușește să se apropie treptat de rezultatele așteptate. Utilizate în medii închise, cu date cuantificabile, rezultatele pot fi impresionante. Însă, formalismul matematic este dificil de aplicat în medii deschise și mai greu de cuantificat: atunci când se încearcă măsurarea fenomenelor sociale „este mult mai dificil să se găsească o relație stabilă” decât în științele naturii[5], căci aceste sisteme de calcul complexe nu sunt replici ale creierului uman (care include procese perceptive, învățare, autoorganizare, adaptare)[6].
Specificul activității judecătorului uman rezidă în metoda de raționament pe care acesta o pune în operă. Acest raționament, cunoscut sub numele de silogism judiciar, este piatra de temelie în funcționarea justiției umane. Într-un mod simplificat, implică trei pași de reflecție în fiecare situație prezentată judecătorului: examinarea faptelor cauzei (este „minorul”); căutarea regulii de drept aplicabile faptelor (este „majorul”); aplicarea regulii la fapte (aceasta este concluzia silogismului).
Raționamentul silogic trebuie să apară în motivarea hotărârii judecătorești, fiind cea care permite destinatarului să fie sigur de existența și fundamentul raționamentului judecătorului, de capacitatea sa de a include, în sistemul normelor juridice identificabile, elemente de fapt complexe. Așadar, motivarea asigură transparență. Este garanția că decizia luată este direct legată de litigiu și calificarea juridică dată situației este corectă.
În aceste condiții, se observă limitele aplicării algoritmilor în justiție, deoarece fazele esențiale ale raționamentului nu mai sunt „vizibile” și inteligibile.
Apoi, silogismul judiciar nu reflectă întreaga motivație folosită judecător, care este punctată uneori de interpretări și alegeri subiective, ascunse sau chiar inconștiente și care nu poate fi formalizată a priori. Învățarea automată este ineficientă în realizarea acestei munci de interpretare, proiectanții sperând cel mult că detectarea regularității în contexte lexicale reușește să reproducă la ieșire aceleași efecte ca procesul de luare a deciziilor care a produs aceste date.
Este semnificativ experimentul făcut de o echipă de cercetători englezi și americani[7], specialiști în informatică, psihologie pozitivă, știința informației și drept, care a dezvoltat un algoritm capabil „să prezică” deciziile Curții Europene a Drepturilor Omului prin corelarea faptelor, argumentelor părților și a legii pozitive relevante. Programul vizează încălcarea a trei articole din Convenția europeană pentru protecția drepturilor omului și a libertăților fundamentale: interdicția torturii și a tratamentelor degradante (art. 3), dreptul la un proces echitabil (art. 6) și dreptul la respectarea vieții private (art. 8). Nu a fost întâmplătoare alegerea jurisprudenței CEDO, căci deciziile Curții pot furniza un eșantion reprezentativ și explică în detaliu faptele, argumentele părților, precum și dispozițiile legale relevante. Prin urmare, pentru fiecare caz, algoritmul a avut la dispoziție suficiente „intrări” pentru a-și îndeplini sarcina.
Rezultatele cercetărilor au fost publicate pe 24 octombrie 2016, într-un articol intitulat „Prezicerea deciziilor judiciare ale Curții Europene a Drepturilor Omului: o perspectivă de procesare a limbajului natural”[8], anunțând că algoritmul creat a reușit să clasifice corect 79% din deciziile Curții Europene a Drepturilor Omului (încălcare sau nu). Analizând aproape 600 de cazuri judecate de Curtea Europeană a Drepturilor Omului, algoritmul a dat aceeași soluție ca magistrații în 8 din 10 cazuri.
Acest experiment de justiție algoritmică este bogat în lecții, generând o serie de întrebări și dezbateri[9]: faptul că un judecător uman și un judecător-robot, în prezența acelorași fapte, conduc adesea la aceleași soluții, nu este dovada că avem deja o justiție cvasi-mecanică? și acest fapt nu ar trebui salutat din punct de vedere al securității juridice și al previzibilității justiției? și dacă, în ceea ce privește cele două cazuri în care deciziile sunt divergente, sentințele judecătorului robotizat sunt cele care decurg cel mai logic din aplicarea strictă a dreptului pozitiv asupra faptelor, în timp ce ale judecătorului uman ar fi dictate de considerații externe, implicite? Apoi, care va fi evoluția profesiilor juridice: înlocuirea magistraților, avocaților, cu mașini „inteligente” care spun legea în mod automat, polițiști-roboți care arestează oamenii (în imaginația tehno-pesimiștilor)? Sau va fi o asociere între magistrați/avocați/notari și aceste mașini „inteligente” – din perspectiva celor mai moderați?
Cele 21% de discrepanțe dintre hotărârile efective și hotărârile furnizate de algoritm arată că și alte elemente, în afară de faptele și dispozițiile legale relevante, joacă uneori un rol decisiv în alegerile magistraților. Dacă luarea deciziilor jurisdicționale ar respecta o logică formală strictă, cercetătorii ar fi reușit să construiască un judecător algoritmic mai performant, în acord cvasi-total cu judecătorul uman.
Originile diferențelor dintre deciziile judecătorului robot și cele ale judecătorului uman, sunt multiple. Comportamentul judiciar este un „puzzle”, ale cărui componente nu au doar forme regulate. Judecătorul american Oliver Wendell Holmes a scris, la sfârșitul sec. XIX, că „viața Dreptului nu este logică; este experiență”[10], iar Jean Carbonnier, unul dintre cei mai mari juriști ai secolului XX, sublinia că „judecătorul este un om și nu o mașină de silogism: la fel de mult cu cunoștințele sale despre reguli și cu logica sa, el judecă cu intuiția și sensibilitatea sa”[11]. Cunoașterea regulilor și a logicii sunt primare, dar intuiția și sensibilitatea joacă un rol complementar, influențând orientarea deciziilor judecătorești mai ales în cele mai dificile cazuri.
În lucrarea menționată[12], cercetătorii indică faptul că „algoritmul a avut tendința de a oferi judecăți eronate atunci când se confruntă cu două cazuri similare care au condus la condamnare și necondamnare”, respectiv atunci când faptele identice sau cel puțin similare sunt tratate diferit în funcție de judecătorii cărora le sunt supuse. Cu alte cuvinte, judecătorul-robot și judecătorul uman au fost de acord mai ales în cazurile centrale și clare, în care regula este aplicabilă cu certitudine, și mai puțin în cazurile pentru care există motive atât pentru a afirma, cât și pentru a nega că se aplică o anumită regulă.
Marja de eroare a judecătorului robot, nu arată cine greșește, ci că judecătorul-robot spune dreptul altfel decât judecătorul uman. Atunci, ar trebui să avem încredere în primul sau în al doilea? Este, credem, dificil să preferi justiția unei mașini decât justiția umană.
S-a susținut că anumite aplicații ale IA pot identifica prejudecăți datorate persoanei magistraților, susceptibile să hrănească suspiciuni de parțialitate. Dar, putem reuși să facem lumină asupra comportamentului judecătorilor pe baza unui tratament algoritmic al apariției numelor lor în anumite hotărâri judecătorești? IA construiește modele încercând să dezvăluie corelații ascunse într-o cantitate mare de date. Dar simpla corelație statistică dintre două evenimente nu este suficientă pentru a explica factorii cu adevărat cauzali. Măsurăm ceea ce poate fi eronat ‒ științific și ideologic, din ambiția de a face deciziile judiciare obiective. Furnizarea unei explicații reale a unei hotărâri ar necesita o analiză mult mai detaliată a datelor fiecărui caz și nu ar putea apărea spontan dintr-o masă de legături lexicale în care apare numele unui magistrat. De exemplu, faptul că un judecător în materie de familie stabilește, mai des statistic, domiciliul unui copil la mamă nu reflectă neapărat o părtinire a acestui magistrat în favoarea femeilor, ci se poate explica și prin existența unor factori sociali, economici și culturali specifici populației din jurisdicția sa.
Riscurile explicațiilor false ale hotărârilor judecătorești sunt, prin urmare, extrem de ridicate. Justiția algoritmică va constitui un fel de memorie mioapă a justiției[13], fiind lipsită de o analiză profundă a elementelor cauzale ale hotărârilor date de judecătorul uman. Valoarea statistică a rezultatelor obținute va rămâne discutabilă în absența unui control real al datelor prospectate și al efectului „cutiei negre” al anumitor algoritmi.
Desigur, există situații pentru care expunerea unor date obiective (timpul de lucru în întreprindere) poate corespunde unui răspuns obiectiv precis (durata concediului plătit). Acestea sunt cazuri în care două sau trei întrebări simple și recurente pot duce la o soluție, fără risc de eroare. Astfel de cazuri, bazate pe un silogism simplu, se pot împrumuta modelării mecaniciste, dar care nu este exact cea adoptată în general de IA. Codul digital al muncii din Franța oferă o astfel de ilustrare[14].
Acest Cod digital al muncii este o platformă online, gratuită, care a început să funcționeze în ianuarie 2020. Pentru a realiza această platformă, o echipă de juriști și specialiști IT au lucrat împreună, timp de aproape doi ani. Introdus prin Ordonanța nr. 2017-1387 privind previzibilitatea și securitatea relațiilor de muncă, scopul codului digital este de a face dreptul muncii – prin utilizarea IA ‒ „accesibil și eficient pentru toți”, deoarece reglementările în domeniu constituie uneori un labirint complex pentru angajați și angajatori. Concret, codul digital al muncii oferă următoarele servicii:
– o bază de date care integrează textele codului muncii și ale principalelor convenții colective, precum și fișe explicative, permițând utilizarea unor cuvinte-cheie în franceza fluentă și nu neapărat în limbaj juridic, pentru a obține trimiterea la documentele care par cele mai potrivite;
– o cutie de instrumente, care include simulatoare pentru calcularea despăgubirilor frecvente care pot fi ușor stabilite din răspunsul la unele date factuale (indemnizații de concediere, preaviz de demisie, salariu brut/net) și modele de acte.
Acest instrument este o bază de date inteligentă, dar nu este destinat efectuării unei analize juridice[15]. Poate da o potrivire textuală unui cuvânt cheie, dar nu poate ajuta la calificarea juridică a faptelor care i-au fost supuse. Apoi, utilizatorul este invitat să răspundă la o serie de întrebări închise care orientează iterativ sistemul. Acest proces imită raționamentul juridic pentru a ajunge la determinarea regulii de drept aplicabile și stabilirea unei (game de) durate sau compensații prevăzute de lege. Dacă situația este atipică, este posibil ca sistemul să nu ofere un răspuns și să sugereze contactarea unui departament juridic.
Pentru a determina textele și reglementările cele mai relevante, sistemul folosește un algoritm analog cu cel al motorului de căutare Google, care se bazează în principal pe asocieri statistice între cuvinte observate într-o bază de date mare. Sistemul s-a bazat inițial pe un algoritm de învățare nesupravegheat, în sensul în care oferă texte „apropiate” de cererea formulată; apoi, un algoritm supravegheat face posibilă o mai bună distincție între răspunsurile utile și cele mai puțin utile.
Acest instrument AI nu este imun la prejudecăți inerente oricărui sistem de învățare (dependent de baza de date de învățare, efect al alegerii unuia sau altuia criteriu de ajustare etc.), dar natura nedecizională a răspunsului pe care îl produce reduce evident consecințele acestor prejudecăți.
Legat de îmbunătățirea acestei platforme, s-a pus întrebarea despre capacitatea de a răspunde, prin integrarea jurisprudenței relevante, la întrebări mai specifice de la utilizatori („Pot fi demis pentru o întârziere la munca?”). Se poate oferi codului digital al muncii capacitatea de a furniza analize și un răspuns juridic la o situație de fapt ridicată de un individ? Opiniile specialiștilor și ale reprezentanților statului sunt în sensul că programului trebuie să-i fie limitate voluntar ambițiile „predictive” la un domeniu clar demarcat și cuantificabil al dreptului muncii; lărgirea ambiției predictive l-ar denatura și ar oferi garanții mai puține cetățenilor.
DOWNLOAD FULL ARTICLE[1] L. Pécaut-Rivolier, S. Robin, Justice et intelligence artificielle, préparer demain – ep. II, publicat pe Dalloz Actualité, la 15.04.2020.
[2] Y. Meneceur, Intelligence artificielle et mémoire de la justice: le grand malentendu, Les cahiers de la justice 2019 p. 277.
[3] Y. Meneceur, Quel avenir pour une justice prédictive, JCP 2018, Doctr. 190.
[4] Commission européenne pour l’efficacité de la justice (CEPEJ), Conseil de l’Europe, Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires: https://www.coe.int/fr/web/cepej/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in-judicial-systems-and-their-environment.
[5] P. Jensen, Pourquoi la société ne se laisse pas mettre en équation, Éditions du Seuil, 2018.
[6] Y. Meneceur, Intelligence artificielle et mémoire de la justice: le grand malentendu, Les cahiers de la justice 2019, p. 277.
[7] Cercetători provenind de la universități din Londra, Sheffield, Pennsylvania.
[8] N. Aletras, V. Lampos, D. Tsarapatsanis, D. Preotiuc-Pietro, Predicting Judicial Decisions of the European Court of Human Rights: a Natural Language Processing Perspective, Peer Journal of Computer Science, 24 oct 2016 (disponibil pe https://peerj.com/articles/cs-93/).
[9] Pentru un studiu amănunțit, a se vedea: B. Barraud, La croisée des savoirs – Un algorithme capable de prédire les décisions des juges: vers une robotisation de la justice?, Les cahiers de la justice 2017, p. 121.
[10] O.W. Holmes, The Common Law, MacMillan, 1881, p. 1, citat de B. Barraud, op. cit., Les cahiers de la justice 2017 pp. 121-139.
[11] J. Carbonnier, Droit civil vol. I: Introduction, Puf, coll. Quadrige, 2004, p. 23.
[12] N. Aletras, V. Lampos, D. Tsarapatsanis, D. Preotiuc-Pietro, op. cit.
[13] Y. Meneceur, Intelligence artificielle et mémoire de la justice: le grand malentendu, Les cahiers de la justice 2019, p. 277.
[14] https://www.fabrique.social.gouv.fr/startups/code-du-travail-numerique.
[15] Pentru detalii, a se vedea: L. Pécaut-Rivolier, S. Robin, Justice et intelligence artificielle, préparer demain – ep. III, publicat pe Dalloz Actualité, la 17.04.2020.
Arhive
- martie 2024
- februarie 2024
- ianuarie 2024
- decembrie 2023
- noiembrie 2023
- octombrie 2023
- septembrie 2023
- august 2023
- iulie 2023
- iunie 2023
- mai 2023
- aprilie 2023
- martie 2023
- februarie 2023
- ianuarie 2023
- decembrie 2022
- noiembrie 2022
- octombrie 2022
- septembrie 2022
- august 2022
- iulie 2022
- iunie 2022
- mai 2022
- aprilie 2022
- martie 2022
- februarie 2022
- ianuarie 2022
- decembrie 2021
- noiembrie 2021
- octombrie 2021
- septembrie 2021
- august 2021
- iulie 2021
- iunie 2021
- mai 2021
- aprilie 2021
- martie 2021
- februarie 2021
- ianuarie 2021
- decembrie 2020
- noiembrie 2020
- octombrie 2020
- septembrie 2020
- august 2020
- iulie 2020
- iunie 2020
- mai 2020
- aprilie 2020
- martie 2020
- februarie 2020
- ianuarie 2020
- decembrie 2019
- noiembrie 2019
- octombrie 2019
- septembrie 2019
- august 2019
- iulie 2019
- iunie 2019
- mai 2019
- aprilie 2019
- martie 2019
- februarie 2019
- ianuarie 2019
- decembrie 2018
- noiembrie 2018
- octombrie 2018
- septembrie 2018
- august 2018
- iulie 2018
- iunie 2018
- mai 2018
- aprilie 2018
- martie 2018
- februarie 2018
- ianuarie 2018
- decembrie 2017
- noiembrie 2017
- octombrie 2017
- septembrie 2017
- august 2017
- iulie 2017
- iunie 2017
- mai 2017
- aprilie 2017
- martie 2017
- februarie 2017
- ianuarie 2017
- decembrie 2016
- noiembrie 2016
- octombrie 2016
- septembrie 2016
- august 2016
- iulie 2016
- iunie 2016
- mai 2016
- aprilie 2016
- martie 2016
- februarie 2016
- ianuarie 2016
- decembrie 2015
- noiembrie 2015
- octombrie 2015
- septembrie 2015
- august 2015
- iulie 2015
- iunie 2015
- mai 2015
- aprilie 2015
- martie 2015
- februarie 2015
- ianuarie 2015
Calendar
L | Ma | Mi | J | V | S | D |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Lasă un răspuns
Trebuie să fii autentificat pentru a publica un comentariu.