Judecătorul cyborg: o automatizare a (in)justiției penale?
Daniel-Cosmin Sporea - ianuarie 7, 20223. AI: Aplicații pe tărâm judiciar penal. Tendințe actualeNu reprezintă o noutate faptul că instanțele utilizează sisteme AI pentru a evalua probabilitatea recidivei și probabilitatea de a fugi din țară a celor care așteaptă să fie judecați sau a infractorilor în proceduri de cauțiune și eliberare condiționată. Cele mai analizate și discutate exemple provin din SUA, care este, de asemenea, actorul care utilizează cel mai frecvent acest tip de software[11]. Arnold Founation Algorithm, care este derulat în 21 jurisdicții din SUA[12], utilizează 1,5 milioane de cazuri penale pentru a prezice comportamentul inculpaților în etapa preliminară a procesului. Florida folosește algoritmi de învățare pentru a seta sume aferente cauțiunii[13]. Mai mult, un studiu de 1,36 milioane de cazuri de detenție dinaintea procesului a arătat că un computer ar putea prezice dacă un suspect are tendința de a fugi sau a recidiva chiar mai bine decât un judecător uman[14].Cu toate că aceste date par convingătoare, este important ca atenția să graviteze în jurul faptului că deciziile luate cu ajutorul AI pot fi injuste. Vor exista întotdeauna fapte suplimentare într-un anumit caz care pot fi unice și depășesc cei patruzeci de parametri luați în considerare de algoritmul din studiul antemenționat, care ar putea determina în mod crucial rezultatul procesului de deliberare[15]. Într-adevăr, consider că obiectivul utilizării AI în sfera justiției penale este de a scădea rata criminalității și a reduce numărul de infractori. Dar acesta nu este singurul obiectiv al utilizării AI în procesul de înfăptuire a justiției penale. Echitatea procedurii este și ea de o importanță semnificativă. În acest sens, salut hotărârea din cauza Loomis v. Wisconsin (2016), speță care viza în prim plan un algoritm de evaluare a riscurilor, Correctional Offender Management Profiling for Alternative Sanctions (COMPAS). Algoritmul a identificat pe inculpat ca prezentând un grad ridicat de recidivă, reprezentând un real pericol pentru societate. Astfel, prima instanță a refuzat cererea de eliberare condiționată a inculpatului. În Apel, Curtea Supremă din Wisconsin a statuat că recomandarea algoritmului nu a fost singurul temei pentru care i-au fost respinse petitele, astfel dreptul la un proces echitabil al inculpatului nu a fost încălcat, totuși.
În aceeași ordine de idei, AI afectează procesul de luare a deciziilor în instanță. În Estonia, Ministerul Justiției finanțează o echipă pentru a proiecta un judecător robot care ar putea soluționa litigiile cu privire la cererile cu valoare redusă, de mai puțin de 7,000 €[16]. În acest nou concept, cele două părți vor încărca documente și alte informații relevante, iar AI va emite o decizie împotriva căreia poate fi introdus un apel la un judecător uman.
Cu titlu de mențiune, AI nu lipsește nici în faza post-judecată. În închisori, AI este din ce în ce mai utilizat pentru automatizarea securității, precum și pentru aspectul reabilitativ al închisorilor. O închisoare care găzduiește unii dintre cei mai feroce criminali din China, în prezent instalează o rețea care va fi capabilă să identifice comportamentul suspect al deținuților, având aptitudinea de a prezice o eventuală tentativă de evadare[17]. Privind din optica Apărării, Firmele de avocatură folosesc deja algoritmi informatici pentru a efectua cercetări de bază asupra altor sarcini îndeplinite în mod tradițional de personalul uman. În Rusia, inginerii au încercat să modeleze un sistem AI: „Robot Lawyer”[18]. Scopul principal este să asiste avocații și cetățenii în furnizarea informațiilor necesare privind procesele legale; „Robot Lawyer” include un sistem expert care folosește un set de reguli pentru a oferi informații de referință. Mai mult, uzitează și unele modele de rețele neuronale pentru a răspunde la întrebări de o complexitate sporită.
În Germania, proiectul „augumentum”[19], care și-a justificat existența pe motiv că argumentarea judiciară necesită un efort intelectual deosebit și cunoașterea multor informații; în condiţiile în care îndeplinirea acestei sarcini îşi găseşte o limită prin capacitatea naturală de procesare a informațiilor de către actorii umani, a fost dezvoltat un prototip de software pentru a sprijini identificarea, analiza și selecția automată a structurilor de argumente juridice.
În aceeași ordine de idei, în Brazilia, oamenii de știință studiază precizia unui sistem legal de recuperare a informațiilor: un astfel de sistem este bazat pe un model care utilizează tehnica de AI cunoscută sub numele de „Raționament bazat pe caz” (Case-Based Reasoning)[20]; conform logicii fundamentale a acestui model, precedentele judiciare pot fi utile pentru a oferi regula în rezolvarea unei probleme curente, în măsura în care este posibil să se găsească un anumit grad de similitudine între cazurile implicate.
În Italia, există cercetări în curs de desfășurare menite să definească componentele teoretice și tehnologice care permit unui cetățean să obțină îndrumare și formare cu privire la conceptele juridice pornind de la o descriere textuală a unui caz[21]. Sistemul este capabil să detecteze concepte juridice relevante din descrierea textuală, bazându-se, de asemenea, pe ontologie și pe îmbogățirea textului cauzei cu cunoștințe de bun simț[22]. Conceptele detectate sunt utilizate pentru a genera o cale de formare menită să ofere cetățenilor baza pentru înțelegerea problemelor juridice pe care le abordează cazul. Calea de instruire este apoi îmbogățită cu informații juridice, cum ar fi legile relevante și jurisprudența preluate dintr-un depozit juridic extern.
Fondatorul Institutului de Politică din Londra, Terence Mauri, subliniază că „în acest nou cadru legal, AI va aduce cu sine o nouă formă de justiție, unde echitatea este amplificată, emoția umană și parțialitatea vor fi de domeniul trecutului. Audierile se vor derula mult mai eficient și rapid, iar cei nevinovați vor fi mult mai puțin probabil să fie condamnați pentru o crimă pe care nu au comis-o”[23]. Mai mult, un judecător robot va putea determina vinovăția sau nevinovăția făptuitorului folosind o varietate de tehnici. Datele care implică limbajul corpului, gesturile mâinii, mișcările ochilor, temperatura corpului și vorbirea vor fi folosite pentru a ajunge la un verdict. Se pare că AI din sala de judecată ar trebui să aibă o precizie de 99% în determinările sale. Timpul și costurile economisite într-un astfel de proces fac acest sistem destul de atrăgător, dar atunci când se ocupă de drepturile și libertățile omului, nu toată lumea este de acord[24]. Cu toate acestea, o echipă de cercetători din Marea Britanie a dezvoltat un program AI care poate prezice rezultatul cazurilor de drepturile omului care implică tortură și tratament degradant[25]. AI — dezvoltată de cercetători de la University College London (UCL) și de la Universitatea din Sheffield, alături de doctorul Daniel Preoțiuc-Pietro de la Universitatea din Pennsylvania — a prezis cu succes verdictele pentru 79% din 584 de cazuri la Curtea Europeană a Drepturilor Omului (CEDO). Pentru a ajunge la un verdict, AI a analizat textul stării de fapt folosind un algoritm de învățare automată, au spus cercetătorii. Algoritmul a căutat modele în text și a reușit să clasifice fiecare caz fie ca „încălcare”, fie ca „neîncălcare”. Pentru a preveni părtinirea și învățarea greșită, echipa a selectat un număr egal de cazuri de încălcare și non-încălcare[26].
China are deja peste 100 de roboți în instanțele din întreaga țară, deoarece urmărește în mod activ o tranziție către justiție inteligentă. Unii dintre roboți au chiar specializări, cum ar fi dreptul comercial sau litigiile legate de muncă[27]. Instanțele chineze folosesc, de asemenea, AI pentru a verifica mesajele private sau comentariile de pe rețelele de socializare care pot fi folosite ca probe în instanță. Iar poliția rutieră folosește tehnologia de recunoaștere facială pentru a identifica și condamna infractorii[28].
4. AI: protector al drepturilor fundamentale?
Recent, în data de 30 noiembrie 2021, European Digital Rights (EDRi) și alte 119 organizații ale societății civile au lansat o declarație colectivă pentru a solicita un Act de Inteligență Artificială (AIA) care să pună în prim plan drepturile fundamentale[29]. Declarația a fost elaborată de European Digital Rights (EDRi), Access Now, Panoptykon Foundation, epicenter.works, AlgorithmWatch, European Disability Forum (EDF), Bits of Freedom, Fair Trials, PICUM și ANEC, și conturează recomandări centrale pentru a ghida Parlamentul și Consiliul Uniunii Europene în vederea sporirii atenției asupra drepturilor fundamentale, în relație cu AI. Declarația conține, printre altele, solicitări de interdicții asupra tuturor sistemelor AI care prezintă un risc inacceptabil pentru drepturile fundamentale – inclusiv interzicerea utilizării sistemelor AI care încearcă să profileze și să prezică viitorul comportament criminal.
Se observă, astfel, o preocupare sporită pe acest segment al drepturilor și libertăților fundamentale. O preocupare cât se poate de justificată, în contextul în care standardele procesului echitabil pot avea de suferit în urma utilizării AI în procesul decizional. Privind din această optică, prezența AI în procesul penal ar trebui să fie exhaustiv limitată la a oferi suport actorilor umani chemați să înfăptuiască justiția, nicidecum să suplinească raționamentul acestora și fără a constitui unicul mijloc în baza căruia se obțin probe și se conferă decizia judiciară.
Mai mult, cele mai numeroase drepturi pe care Convenția Europeană le garantează nu sunt absolute. O examinare atentă a articolelor 8, 9, 10, 11 ne va revela faptul că aceste drepturi pot fi restrânse, atât timp cât limitările sunt prevăzute de lege și sunt necesare într-o societate democratică, urmărindu-se protejarea unor interese specifice. Adesea, Curtea Europeană se confruntă cu evaluarea măsurilor restrictive, analizând în concret condițiile menționate anterior. În analizarea testului legitimității restrângerii, judecătorul de la Strasbourg va avea o anumită marjă de apreciere în ceea ce privește cea din urmă, în contextul în care pretinsul drept încălcat poate fi pus în balanță cu alte drepturi. Cum poate o mașină să pună în balanță diferite drepturi și să decidă dacă o limitare a unui drept este justificată?
5. Concluzii
Pe măsură ce tehnologia continuă să schimbe modul în care lucrăm și funcționăm, există predicții că multe aspecte ale activității umane vor fi înlocuite sau susținute de tehnologii noi. În timp ce multe activități umane s-au schimbat în timp ca urmare a progreselor umane, este probabil ca schimbările recente să aibă un impact mai amplu asupra unor funcții umane care au fost anterior în mare parte neperturbate. Astfel, întrebarea de bază ar trebui să fie nu „dacă” AI va reforma sistemul judiciar penal, ci „când” și până la ce punct.
Software-ul „mănâncă” lumea, a avertizat Mark Andreessen, un investitor american[30]. Cu toate acestea, sunt și ar trebui să existe preocupări când se aduc în discuție provocările potențiale ale sistemelor AI, așa cum de altfel un autor atrage atenția[31], pentru participarea cetățenilor, transparență, demnitate, confidențialitate și libertate. Fără garanții suficiente, s-ar putea să creeze rezultate adverse în mod disproporționat, să consolideze sau să exacerbeze prejudecățile sistemice și chiar să creeze unele noi[32]. Nu trebuie neglijat, însă, că AI are potențialul de a îmbunătăți accesul la justiție și de a promova o judecată eficientă și imparțială și de a fi parte permanentă a ecosistemului nostru de justiție penală, oferirea de asistență investigativă a profesioniștilor pentru a ajuta la păstrarea siguranței publice. Privind din aceste optici, sperăm ca AI să fie o forță a binelui.
[11] Dewan, S., Judges Replacing Conjecture with Formula for Bail. The New York Times (2015).
[12] Ibidem.
[13] Eckhouse, L.: Big data may be reinforcing racial bias in the criminal justice system, Washington Post (2017).
[14] Kleinberg, J., Lakkaraju, H., Leskovec, J., Ludwig, J., Mullainathan, S., Human decisions and machine predictions. Q. J. Econ. 133, 237 (2018). More on positive uses: Sunstein, C.R.: Algorithms, Correcting Biases (December 12, 2018). Social Research. Disponibil la https://ssrn.com/abstract=3300171 [accesat 26.11.2021].
[15] Ibidem.
[16] Niiler, E., Can AI be a Fair Judge in Court? Estonia Thinks so. Wired (2019). Disponibil la www.wired.com/story/can-ai-be-fair-judge-court-estonia-thinks-so/amp?__twitter_impression=true [accesat 26.11.2021].
[17] Yan S., Chinese High-Security Jail Puts AI Monitors in Every Cell „to Make Prison Breaks Impossible”, The Telegraph (2019). Disponibil la www.telegraph.co.uk/news/2019/04/01/chinese-prison-rolls-facial-recognition-sensors-track-inmates/ [accesat 26.11.2021].
[18] Mai multe detalii la https://ieeexplore.ieee.org/document/8674441 [accesat 01.12.2021].
[19] Mai multe detalii la https://ieeexplore.ieee.org/document/6611332 [accesat 01.12.2021].
[20] Mai multe detalii la https://ieeexplore.ieee.org/document/5532453 [accesat 01.12.2021].
[21] Mai multe detalii la https://ieeexplore.ieee.org/document/7057139 [accesat 01.12.2021].
[22] Ibidem.
[23] Staff Writer, Robot Judges and Algorithmic Bail – The Digitalization of the Justice System Is here, 30 octombrie 2020, disponibil la https://www.boldbusiness.com/digital/robot-judges-algorithmic-bail/ [accesat 27.11.2021].
[24] Ibidem.
[25] Sam Shead, This „AI judge” is predicting the results of human rights cases, Technology Reporter, Business Insider, 26 octombrie 2016, disponibil la https://www.weforum.org/agenda/2016/10/this-ai-judge-is-predicting-the-results-of-human-rights-cases [accesat 03.12.2021].
[26] Ibidem.
[27] Briony Harris, Could an AI ever replace a judge in court?, World Government Summit, July 11 2018, disponibil la https://www.worldgovernmentsummit.org/observer/articles/2017/detail/could-an-ai-ever-replace-a-judge-in-court [accesat 03.12.2021].
[28] Ibidem.
[29] Disponibil la https://edri-org.translate.goog/our-work/civil-society-calls-on-the-eu-to-put-fundamental-rights-first-in-the-ai-act/?_x_tr_sl=en&_x_tr_tl=ro&_x_tr_hl=ro&_x_tr_pto=sc [accesat 20.12.2021].
[30] Garry Kasparov, Digital Justice – Can artificial intelligence replace a judge?, CMS Cameron McKenna Nabarro Olswang LLP, disponibil la https://www.lexology.com/library/detail.aspx?g=f478f3a2-f1f9-4846-875b-cf648215182b [accesat 09.12.2021].
[31] Laura M. Stănilă, op. cit., nota 1, p. 148.
[32] Solon Borocas, Andrew D. Selbst, Big Data’s Disparate Impact, California Law Review, 2016, vol. 104: 671, p. 673, disponibil la http://dx.doi.org/20.2139/ssrn.247789 [accesat 09.12.2021].
Arhive
- martie 2024
- februarie 2024
- ianuarie 2024
- decembrie 2023
- noiembrie 2023
- octombrie 2023
- septembrie 2023
- august 2023
- iulie 2023
- iunie 2023
- mai 2023
- aprilie 2023
- martie 2023
- februarie 2023
- ianuarie 2023
- decembrie 2022
- noiembrie 2022
- octombrie 2022
- septembrie 2022
- august 2022
- iulie 2022
- iunie 2022
- mai 2022
- aprilie 2022
- martie 2022
- februarie 2022
- ianuarie 2022
- decembrie 2021
- noiembrie 2021
- octombrie 2021
- septembrie 2021
- august 2021
- iulie 2021
- iunie 2021
- mai 2021
- aprilie 2021
- martie 2021
- februarie 2021
- ianuarie 2021
- decembrie 2020
- noiembrie 2020
- octombrie 2020
- septembrie 2020
- august 2020
- iulie 2020
- iunie 2020
- mai 2020
- aprilie 2020
- martie 2020
- februarie 2020
- ianuarie 2020
- decembrie 2019
- noiembrie 2019
- octombrie 2019
- septembrie 2019
- august 2019
- iulie 2019
- iunie 2019
- mai 2019
- aprilie 2019
- martie 2019
- februarie 2019
- ianuarie 2019
- decembrie 2018
- noiembrie 2018
- octombrie 2018
- septembrie 2018
- august 2018
- iulie 2018
- iunie 2018
- mai 2018
- aprilie 2018
- martie 2018
- februarie 2018
- ianuarie 2018
- decembrie 2017
- noiembrie 2017
- octombrie 2017
- septembrie 2017
- august 2017
- iulie 2017
- iunie 2017
- mai 2017
- aprilie 2017
- martie 2017
- februarie 2017
- ianuarie 2017
- decembrie 2016
- noiembrie 2016
- octombrie 2016
- septembrie 2016
- august 2016
- iulie 2016
- iunie 2016
- mai 2016
- aprilie 2016
- martie 2016
- februarie 2016
- ianuarie 2016
- decembrie 2015
- noiembrie 2015
- octombrie 2015
- septembrie 2015
- august 2015
- iulie 2015
- iunie 2015
- mai 2015
- aprilie 2015
- martie 2015
- februarie 2015
- ianuarie 2015
Calendar
L | Ma | Mi | J | V | S | D |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Lasă un răspuns
Trebuie să fii autentificat pentru a publica un comentariu.