Judecătorul cyborg: o automatizare a (in)justiției penale?
Daniel-Cosmin Sporea - ianuarie 7, 20221. Inteligența Artificială. Accepțiuni
Utilizarea Inteligenței Artificiale (AI) în toate domeniile vieții sociale, împreună cu riscurile și beneficiile acestei utilizări, a devenit una dintre cele mai dezbătute teme în doctrina juridică națională și internațională. După cum subliniază un autor[1], este incontestabil faptul că AI a acaparat viața cotidiană, influențând-o dramatic. Viitorul omenirii se concentrează pe AI, de aceea, abordarea cu seriozitate a impactului pe termen lung a utilizării AI este imperativ necesară.
În procesul de înfăptuire a justiției, în esență, sistemele AI își pot asuma, în prezent, două roluri în sala de judecată. Pe de o parte, „asistenții AI” pot sprijini judecătorii în procesul de luare a deciziilor, prin anticiparea și pregătirea acestora; pe de altă parte, „judecătorii robot” pot înlocui judecătorii umani și pot decide cazurile în mod autonom, în proceduri judiciare complet automatizate. Luând în considerare modul în care diferite jurisdicții abordează schimbările tehnologice actuale și viitoare și, în special, concentrându-se asupra diferitelor abordări din SUA, China și din alte state, prezentul articol își propune să contureze o explorare comparativă a tendințelor digitalizării justiției penale, digitalizare în plină evoluție actualmente.
Psihologia cognitivă a adoptat conceptul conform căruia atât animalele, cât și oamenii sunt considerați mașini de procesare a informațiilor[2]. Filosofii[3] considerau că, în anumite privințe, creierul uman este comparabil cu o mașină care operează pe cunoștințe codificate într-un limbaj intern, și că, astfel, gândul poate fi folosit pentru a selecta ce acțiuni trebuie întreprinse. Filosoful grec Aristotel a fost unul dintre primii care au încercat codificarea „modului corect de gândire”, adică să structureze universal modul corect de raţionament. Fiecare tip de silogism garantează că, atunci când i se oferă anumite premise, se ajunge întotdeauna la concluzii corecte.
2. AI în sfera justiției penale. Problematici
Progresul rapid al AI și al învățării prin intermediul mașinilor inteligente ridică întrebări cheie cu privire la soarta justiției penale în general, respectiv a actorilor chemați să înfăptuiască justiția în special. Automatizarea adusă de marile sisteme de analiză a datelor, de învățare automată și de AI ne provoacă să reconsiderăm problemele fundamentale ale justiției penale[4]. La fel ca în numeroase întreprinderi, AI oferă beneficii extraordinare. Întrucât realizarea justiției penale nu este altceva decât un lanț de decizii luate în baza unor proceduri și raționamente, pe baza interpretărilor date unui cumul de fapte, circumstanțe și date ale realității, se poate observa că, ab initio, AI se califică drept instrument pentru facilitarea și urgentarea luării acestor decizii, datorită capacității extraordinare de prelucrare a unor cantități mari de date și a obiectivității absolute, imposibil de atins de către un actor uman[5]. Însă, mizele sunt extrem de mari. Utilizarea unui algoritm predictiv pentru a decide condițiile de custodie a copilului nu este exact echivalentă cu recomandarea Netflix a unui film pe care ar trebui să îl vizionăm în continuare.
Odată cu apariția marilor sisteme de analiză a datelor, de învățare automată și de AI, atât evaluarea riscului criminalității, cât și funcționarea sistemelor de justiție penală devin din ce în ce mai sofisticate din punct de vedere tehnologic. Deși nu există un consens cu privire la faptul că aceste tehnologii reprezintă un panaceu pentru sistemele de justiție penală – de exemplu, prin reducerea numărului de cazuri – sau vor exacerba și mai mult diviziunile sociale și vor pune în pericol libertățile fundamentale, cele două tabere sunt totuși de acord că astfel de noi tehnologii au consecințe importante pentru sistemele de justiție penală[6]. O astfel de soluție este cât se poate de serioasă, privind prin optica faptului că din ce în ce mai mult, algoritmii au început să arbitreze corectitudinea pentru noi. Ei decid cine vede anunțuri de locuințe, cine se angajează sau este concediat, și chiar cine este trimis la închisoare. În consecință, persoanelor care îi creează — inginerii de software — li se cere să articuleze ceea ce înseamnă să fie corect în codul lor. Acesta este motivul pentru care autoritățile de reglementare din întreaga lume se confruntă acum cu o întrebare: Cum putem cuantifica matematic corectitudinea?
2.1. „BIAS”. Rezultate și consecințele incorecte, inechitabile, periculoase
Etapele intermediare ale procesului de adoptare a unei decizii sunt, prin definiție, ascunse de supravegherea umană din cauza complexității tehnice implicate. Ideea de bază a învățării active a mașinilor este de a elimina oamenii din ecuație. Mai mult, rețelele neuronale artificiale învață să îndeplinească sarcini luând în considerare exemple, în general fără a fi programate cu reguli specifice sarcinilor. Ca atare, rețelele neuronale artificiale pot fi extrem de utile în mai multe domenii, cum ar fi viziunea pe calculator, procesarea limbajului natural, geoștiința pentru modelarea oceanelor sau securitatea cibernetică, pentru identificarea și discriminarea între activitățile legitime și cele rău intenționate. Ei nu cer probe etichetate, de exemplu, pentru a recunoaște pisicile în imagini sau pietoni în trafic, dar pot genera pe cont propriu cunoștințe despre cum arată o pisică. Operațiunile din abordările de învățare automată nu sunt transparente nici pentru cercetătorii care au construit sistemele, iar acest lucru poate să nu fie problematic în multe domenii de învățare automată aplicată, întrucât sistemele AI trebuie să fie transparente atunci când sunt utilizate în cadrul sistemului judiciar, în cazul în care explicabilitatea deciziilor și transparența raționamentului sunt semnificative. Un proces decizional lipsit de transparență și inteligibilitate nu este considerat democratic. Din cauza naturii inerent opace a acestor sisteme AI, noile instrumente utilizate în cadrul justiției penale pot fi astfel în contradicție cu libertățile fundamentale. Termenul „Bias”[7], adică rezultatele și consecințele incorecte, inechitabile sau periculoase generate de utilizarea AI, a fost subliniat încă din 1996, într-o discuție privind utilizarea algoritmilor în cadrul unor diverse sarcini, precum programarea, ocuparea forței de muncă ș.a.m.d[8]. Un renumit autor subliniază că „Bias-ul în utilizarea sistemelor informatice poate fi dificil de identificat (…). Sistemele informatice, de exemplu, sunt relativ necostisitor de diseminat și astfel, odată dezvoltate, un sistem care generează rezultate nedorite are potențialul de a avea un impact generalizat. Dacă sistemul devine un standard în domeniu, bias-ul devine omniprezent. În cazul în care sistemul este complex – și majoritatea sunt – bias-ul poate rămâne ascuns în cod, fiind dificil de identificat sau explicat (…) utilizatorilor sau clienților lor. În plus, spre deosebire de relațiile noastre cu persoanele părtinitoare, cu care o potențială victimă poate să negocieze, sistemele informatice «părtinitoare» nu oferă mijloace echivalente de apel”[9]. Cu titlu de mențiune, doctrina[10] a clasificat rezultatele de tip „Bias” după cum urmează: bias preexistent (rezultat discriminator sau negativ care își are rădăcinile în instituțiile, practicile și atitudinile sociale), bias tehnic (rezultat a cărui producere se datorează constrângerilor sau considerațiilor tehnice ale sistemului) și bias emergent (rezultat care apare numai într-un context de utilizare, după finalizarea designului, ca rezultat al schimbării cunoștințelor de specialitate în societate, a evoluției cercetării într-un domeniu, a structurii populației sau a valorilor culturale).
[1] Laura M. Stănilă, Inteligența Artificială. Dreptul penal și sistemul de justiție penală, amintiri despre viitor, Universul Juridic, București, 2002, p. 144.
[2] Stuart J. Russell and Peter Norvig, Artificial Intelligence. A modern approach, Third Edition, Prentice Hall, 2010, p. 13.
[3] Camila Ovi, Luigi Salvia et al., The Judge of the Future: Artificial Intelligence and Justice, disponibil la https://www.ejtn.eu/PageFiles/17916/TEAM%20ITALY%20II%20TH%202019%20D.pdf [accesat: 20.12.2021]; Aristotel, 384-322 B.C., Silogism.
[4] Aleš Završnik, Criminal justice, artificial intelligence systems and human rights, disponibil la https://link.springer.com/article/10.1007/s12027-020-00602-0 [accesat 26.11.2021].
[5] Laura M. Stănilă, op. cit, nota 1, p. 145.
[6] Ibidem.
[7] Trad. „părtinitor”.
[8] Laura M. Stănilă, op cit, nota 1, p. 146.
[9] B. Friedman, H. Nissenbaum, Bias in Computer Systems, ACM Transactions on Information Systems, vol. 14, nr. 3: 330-347, iulie 1996, p. 331, disponibil la https://www.vsdesign.org /publications /pdf/ 64_ fried man.pdf [accesat 07.12.2021] apud. Laura M. Stănilă, Inteligența Artificială. Dreptul penal și sistemul de justiție penală, amintiri despre viitor, Universul Juridic, București, 2002, p. 144.
[10] Ibidem, pp. 333-336.
Arhive
- martie 2024
- februarie 2024
- ianuarie 2024
- decembrie 2023
- noiembrie 2023
- octombrie 2023
- septembrie 2023
- august 2023
- iulie 2023
- iunie 2023
- mai 2023
- aprilie 2023
- martie 2023
- februarie 2023
- ianuarie 2023
- decembrie 2022
- noiembrie 2022
- octombrie 2022
- septembrie 2022
- august 2022
- iulie 2022
- iunie 2022
- mai 2022
- aprilie 2022
- martie 2022
- februarie 2022
- ianuarie 2022
- decembrie 2021
- noiembrie 2021
- octombrie 2021
- septembrie 2021
- august 2021
- iulie 2021
- iunie 2021
- mai 2021
- aprilie 2021
- martie 2021
- februarie 2021
- ianuarie 2021
- decembrie 2020
- noiembrie 2020
- octombrie 2020
- septembrie 2020
- august 2020
- iulie 2020
- iunie 2020
- mai 2020
- aprilie 2020
- martie 2020
- februarie 2020
- ianuarie 2020
- decembrie 2019
- noiembrie 2019
- octombrie 2019
- septembrie 2019
- august 2019
- iulie 2019
- iunie 2019
- mai 2019
- aprilie 2019
- martie 2019
- februarie 2019
- ianuarie 2019
- decembrie 2018
- noiembrie 2018
- octombrie 2018
- septembrie 2018
- august 2018
- iulie 2018
- iunie 2018
- mai 2018
- aprilie 2018
- martie 2018
- februarie 2018
- ianuarie 2018
- decembrie 2017
- noiembrie 2017
- octombrie 2017
- septembrie 2017
- august 2017
- iulie 2017
- iunie 2017
- mai 2017
- aprilie 2017
- martie 2017
- februarie 2017
- ianuarie 2017
- decembrie 2016
- noiembrie 2016
- octombrie 2016
- septembrie 2016
- august 2016
- iulie 2016
- iunie 2016
- mai 2016
- aprilie 2016
- martie 2016
- februarie 2016
- ianuarie 2016
- decembrie 2015
- noiembrie 2015
- octombrie 2015
- septembrie 2015
- august 2015
- iulie 2015
- iunie 2015
- mai 2015
- aprilie 2015
- martie 2015
- februarie 2015
- ianuarie 2015
Calendar
L | Ma | Mi | J | V | S | D |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Lasă un răspuns
Trebuie să fii autentificat pentru a publica un comentariu.