Era digitală și justiția (I). Obiective, metode de proiectare a algoritmilor și consecințe ale folosirii IA în justiție

1. Introducere: despre algoritmi și folosirea lor în justiție

Utilizarea Inteligenței Artificiale (IA) în justiție pare a fi subiectul momentului în mediul judiciar din România[1]. După dezvoltarea mai multor sectoare ale activității umane, este rândul sistemului judiciar să experimenteze o revoluție digitală, care ar trebui să pună capăt multor probleme ale justiției tradiționale: aglomerarea instanțelor, durata mare a procedurilor sau accesul inegal la justiție… Dar putem ști că Justiția algoritmică va fi mai bună decât justiția umană?

Codurile algoritmice influențează deja funcționarea mediului judiciar, într-un proces ireversibil. În același timp, justiția (din România și nu numai) se simte vulnerabilă în fața unor progrese tehnologice. Juriștii sunt refractari la folosirea IA, pentru că văd în IA antiteza filozofiei care ghidează, în mod tradițional, activitatea jurisdicțională: justiția trebuie să ofere fiecărui caz un răspuns individualizat luând în considerare particularitățile speței, pe când IA își propune să raționalizeze și să „masifice” soluțiile.

Încă din anii ʼ60 ai secolului trecut, în Statele Unite ale Americii, oamenii de știință au început să construiască modele matematice bazate pe probabilități sau corelații menite să ajute la anticiparea hotărârilor judecătorești[2]. În 1963, avocatul Reed Lawlor, care a pus bazele procesării computerizate a datelor unui dosar pentru a anticipa asupra admisibilității acestuia, scria: „Nu există nicio modalitate prin care dreptul să poată evita controlul științei. Dacă avocații și judecătorii nu participă la această lucrare, totul va fi făcut de alții [3]. Apoi, în 2012, s-a dezvoltat un model matematic prin care verdictele Curții Supreme a Statelor Unite pot fi determinate cu o rată de fiabilitate de până la 75%[4].

Cuvântul algoritm a invadat limbajul obișnuit, dar aceasta popularizare a schimbat oarecum sensul tehnic al cuvântului. În general, dicționarele definesc algoritmul ca fiind o secvență finită și fără echivoc de operații sau instrucțiuni permițând rezolvarea unei clase de probleme complexe. Funcționează din „intrări” (datele originale) și duce la „ieșiri” (rezultatele) urmând pași diferiți care necesită decizii logice sau comparații.

În materie juridică, regulile de drept ar trebui să facă obiectul instrucțiunilor din robot, să poate fi exprimate prin relația IF… THEN. De exemplu: DACĂ țara cumpărătorului = non UE, ATUNCI TVA = nu și expeditor = da. DACĂ plata = numerar, ATENȚIE garanții = niciuna”.

Codurile algoritmice sunt traduse în limbaje de programare care permit executarea automatizată a operațiilor care le compun, cu ajutorul unui computer. Cele mai cunoscute sunt cele ale motoarelor de căutare (Algoritmul Google, de exemplu) care permit, în funcție de cuvintele cheie introduse de utilizator, să ajungă la cele mai relevante pagini web. Astfel, extragerea dintr-o mare baze de date a unor exemple, care respectă o serie de criterii, necesită un algoritm. În acest caz, activitatea algoritmică vizează, în principal, să asigure că răspunsul furnizat este corect și că va fi redat în timp scurt, chiar și atunci când baza de date este foarte mare.

Calculatorul efectuează mecanic operațiile care alcătuiesc algoritmul și permite algoritmului să auto-învețe, adică să învețe de la sine datele pe care le procesează. Astfel, codurile algoritmice mai sofisticate simulează atribute asociate cu inteligența umană, cum ar fi raționamentul și învățarea. Acest tip de cod este inteligența artificială (IA).

Având în vedere puterea de calcul pe care o mobilizează și cantitatea de date pe care o pot folosi, algoritmii pot primi funcții multiple: de a facilita căutarea informațiilor, de a oferi statistici, de a automatiza redactarea, clasificarea și traducerea documentelor, de a recomanda produse sau servicii, de a ajusta prețurile în funcție de piață, de a selecta atribuind scoruri (pentru a acorda un împrumut, a recruta un angajat). Ca urmare, IA este folosită cu succes în transporturi, medicina predictivă, finanțe etc.

În prezent, și în domeniul Dreptului, algoritmii au devenit furnizori de servicii juridice. Dar ar putea deveni și producători de drept? Este una dintre întrebările generate de folosirea IA în drept și asupra căreia vom reveni pe parcursul studiului nostru, căci implementarea algoritmilor în sectorul juridic ne obligă la o inversare a perspectivei pentru a înțelege, nu modul în care legea poate controla algoritmii, ci modul în care algoritmii pun stăpânire pe lege. Este vorba de a stabili măsura crescândă a intervenției algoritmilor în procesele de producție și de aplicare a legii[5].

Apoi, sunt dezbaterile despre justiția predictivă, despre algoritmii care ar permite computerului să pronunțe decizii judecătorești așa cum fac magistrații umani. „justiție predictivă”, „justiție algoritmică”, „justiție actuarială”, „justiție Buton” – sunt exprimări tot mai frecvente, care creează imaginea unui sistem în care oamenii ar fi înlocuiți de roboți-judecători sau roboți-avocați.

Este vorba de algoritmi sofisticați care dezvăluie diverse corelații și care se bazează pe trecut pentru a modela prezentul și a imagina viitorul. Scopul unui algoritm predictiv este acela de a calcula o probabilitate pe baza informațiilor pe care proiectantul le oferă.

Așadar, datele sunt „inima” dezvoltării algoritmului: funcționarea unui algoritm depinde de corelația dintre foarte multe date, alese în prealabil, ceea ce implică o mare putere de decizie. Care sunt „datele bune”?, căci această alegere va avea consecințe juridice asupra persoanei în cauză. De exemplu, dacă, din punct de vedere istoric, în sistemul de justiție al unor comunități sociale s-au comis discriminări rasiale sau economice, atunci utilizarea în scop predictiv a datelor colectate va conduce în mod necesar la simpla reproducere a greșelilor care au fost făcute în trecut; datele originale fiind părtinitoare, nu ne putem aștepta ca predicția realizată prin algoritm să fie la polul opus.

Pentru a cunoaște efectele acestei cyber-justiții, trebuie să ajungem la o înțelegere și o definire a acestor concepte. Vom descoperi definiții care variază de la o persoană la alta, în funcție de profesie sau de mișcarea filosofică sau tehnologică de care aparține. De exemplu, într-o lucrare de căpătâi în domeniu, cercetătorii francezi Antoine Garapon și Jean Lassègue definesc justiția digitală ca fiind „capacitatea dată mașinilor de a mobiliza rapid, în limbaj natural, regula de drept relevantă pentru a trata un caz, de a o pune în context propriile caracteristici (locul, personalitatea judecătorilor, firme de avocatură etc.) și de a anticipa probabilitatea oricărei decizii care ar putea fi luate”[6].

Marile așteptări ale susținătorilor justiției predictive vizează accesul la o justiție mai echitabilă, descongestionarea instanțelor, neutralitatea și transparența. Însă, în starea actuală a cunoașterii și tehnologiei, s-a remarcat că aceste așteptări tind să aibă un efect advers[7]. De exemplu, transparența deciziilor este afectată de motive economice, de conflictele de drepturi privind secretul comercial și proprietatea intelectuală, iar metodologiile algoritmilor rămân opace și inaccesibile, lăsând „inima reflecției” ascunsă, așa cum explică un autor în cartea sa[8].

De asemenea, este ferventă dezbaterea asupra fezabilității modelării raționamentului juridic. Pe de o parte, sunt cei care cred că justiția umană este deja mecanică, astfel încât justiția predictivă ar reproduce același tipar. Atât algoritmul, cât și silogismul juridic ar fi comparabile cu rețetele de gătit: prin amestecarea diferitelor ingrediente identificate cu precizie, orice bucătar va obține același fel de mâncare; orice judecător va ajunge la aceeași soluție[9].

Pe de altă parte, sunt cei care consideră că umanitatea din centrul justiției este imposibil de reprodus. De altfel, unii oameni de știință a datelor (data scientist) atrag atenția asupra limitelor existente în încercarea de a descrie fenomenele sociale folosind ecuațiile. Printre aceștia, matematiciana Catherine O’Neil susține, în cartea sa devenită celebră – Weapons of Math Destruction, că matematicile pot deveni o nouă „armă de distrugere în masă” deoarece, utilizând calcule algoritmice foarte dense, „ar fi dificil, dacă nu imposibil, să facă transparente alegerile deseori arbitrare ale creatorilor lor”. În ciuda neutralității lor aparente, algoritmii ar putea să consolideze inegalitățile dintre oameni într-un mod fără precedent, utilizând încrederea acestora în matematică pentru a-i împiedica să pună întrebări[10].

Cum putem impune, pentru Proiectantul algoritmilor, datoria de a se asigura că tehnologia rămâne un ajutor în serviciul omului, respectând atribuțiile judecătorului, ale terților de încredere (avocați, notari, executori judecătorești) și interesele justițiabililor? Care va fi rolul Statului în responsabilizarea și verificarea acestor proiectanți?

În mod cert, este vremea unor alegeri decisive cu privire la modul de a introduce AI în justiție, la nivel național și european, astfel încât trebuie să supunem dezbaterii chestiuni susceptibile de a determina aceste alegeri. Este momentul să ne întrebăm ce vrem în legătură cu utilizarea IA, unde ne poate conduce această utilizare, care sunt riscurile și limitele unei digitalizări ex-abrupto și ce măsuri de precauție ar trebui respectate.

Acest studiu își propune să arunce o lumină asupra problematicii, făcând posibilă aprofundarea unor reflecții deja inițiate de profesioniștii dreptului din România.

Efectuând cercetări, am descoperit o doctrină europeană – și franceză, mai ales – foarte consistentă, bazată pe cercetări științifice numeroase și interdiciplinare, la care ne vom raporta cu preponderență în prezentul studiu. Această alegere este motivată, printre altele, de faptul că Franța se numără printre primele patru țări din lume la producția de articole despre IA, alături de China, SUA și Marea Britanie; de exemplu, în 38 dintre universitățile din Franța se predau peste 135 de cursuri legate de IA, există peste 260 de echipe de cercetători în domeniul IA[11] etc.

De asemenea, în Franța, este concepută o strategie națională de cercetare în materie de IA, pentru a cărei dezvoltare s-a preconizat, din partea statului francez, o finanțare de 665 milioane de euro în perioada 2018-2022. În cadrul acesteia a fost elaborat un amplu Raport[12], coordonat de matematicianul Cédric Villani, care identifică patru sectoare prioritare în care Franța trebuie să își concentreze eforturile pentru a dezvolta inteligența artificială: sănătatea, transportul, mediul și apărarea; în plus, sunt abordate aspecte etice, deoarece aceste tehnologii, care oferă mașinilor puteri gigantice de analiză, pot avea aspecte îngrijorătoare. Raportul Villani subliniază că „este nevoie de un organism pentru a emite avize, pentru a da hotărâri în deplină independență, care poate fi sesizat de guvern și de cetățeni, și care ne spune ce este acceptabil sau inacceptabil”. În acest context, remarcăm că Franța a adoptat în anul 2016, Legea pentru o republică digitală[13] care vizează, printre altele, și luarea de decizii automatizate.

 

2. Clarificarea limbajului

Legat de inteligența artificială, înainte de orice încercare de analiză, trebuie depus un efort de definire, deoarece fără un vocabular clar nu se poate construi o gândire clară, după cum remarca cercetătorul francez Jean Lassègue[14]. Expresia „Inteligența artificială” și-a schimbat sensul, de când a apărut ‒ în anii ’50 ai secolului trecut, însă utilizarea omniprezentă a acronimului „IA” este o indicație a aspectului său ermetic, părând o materie rezervată doar inițiaților.

În cazul IA, cuvântul algoritm desemnează atât procedeul care permite furnizarea unui răspuns la o interogare, prin intermediul unei formule de calcul, cât și a procesului cunoscut sub numele de „învățare automată” care a făcut posibilă stabilirea precisă a acelei formule.

Într-un amplu studiu[15], J. Lassègue pune în discuție diferite definiții ale inteligenței artificiale, pornind de la cea a dicționarului Larousse: „Toate teoriile și tehnicile implementate în vederea construirii de mașini capabile să efectueze sarcini rezervate anterior oamenilor”.

Autorul observă că această definiție comportă trei probleme distincte care dezvăluie trei ezitări:

– o ezitare între știință și tehnică: o știință are ca scop înțelegerea unui câmp de cunoștințe deschis la nesfârșit, în timp ce o tehnică vizează atingerea obiectivelor practice definite în avans. În cazul Inteligenței artificiale, care este relația pe care o întreține între știință și tehnologie?

– o ezitare asupra noțiunii de mașină. Trebuie să distingem astăzi între computer, ca mașină materială și mașina care întruchipează o structură logică: o mașină materială supusă pericolelor oricărei componente fizice și mașina reprezentând noțiunea universală de calcul. Prin urmare, conceptul de mașină se bazează acum pe o separare strictă între ceea ce numim software-ul și hardware-ul. Astăzi, prin „mașină” se înțelege o structură logică universală capabilă să execute într-o manieră uniformă modele de repetiție exprimabile sub formă de numere și scrise într-un format dat în avans, numite „programe”; dacă descoperim un model repetitiv într-o activitate, o “mașină de calcul” poate descrie acest tipar sub forma unui program care, ulterior, poate fi executat prin intermediul unui computer. Prin urmare, inteligența artificială pare să se extindă de la aspectul cel mai abstract al noțiunii de mașină la efectuarea etapelor unui program într-un computer hardware.

– ezitări cu privire la sfera sarcinilor rezervate sau nu oamenilor. Sarcinile îndeplinite de oameni devin tot mai complexe în timp și nu avem o delimitare clară a sarcinilor pe care le vor putea îndeplini oamenii în viitor. Se pune întrebarea dacă mașinile trebuie să îndeplinească unele sau toate sarcinile pe care oamenii, astăzi și în viitor, le pot îndeplini. Este posibil să suprapunem absolut sarcinile efectuate de oameni și mașini, sau ar trebui, dimpotrivă, să le separăm radical? sau să găsim o variantă hibrid?

Apoi, descoperim o definiție mai actuală și mai tehnică a IA, făcută într-o lucrare de referință a genului – Artificial Intelligence: A Modern Approach[16], publicată în 1995 de doi informaticieni renumiți: „Tema principală unificatoare este cea a agentului inteligent. Definim inteligența artificială ca studiul agenților care primesc percepții din mediul înconjurător și care realizează acțiuni până la finalizare. Fiecare dintre acești agenți materializează o funcție care raportează secvențe de percepții la acțiuni […].”

Făcând o comparație, J. Lassègue observă că, de la o definiție la alta, noțiunea de ființă umană a dispărut: inteligența, în acest citat, nu mai este apanajul oamenilor și noțiunea de IA pare să reproducă stricta distincție între mașina software și computerul hardware.

Putem vedea inteligența ca un concept obiectiv care poate fi aplicat altor comportamente decât cele ale oamenilor? În esență, este vorba despre relația agentului inteligent cu lumea, văzută ca o relație matematică de tip funcțional: aceasta implică asocierea „informațiilor” colectate în „input” și procesarea lor, astfel încât să producă alte „informații” în „Ieșireʼ. Apar aici câteva întrebări: de ce relația agentului inteligent cu lumea ar trebui să fie proiectată pe modelul matematic al unei funcții? Și cum explicăm faptul că nu acesta este modul în care oamenii își concep relația cu lumea și de ce ar trebui, așadar, să o schimbăm? trebuie ca mașinile să se adapteze oamenilor sau oamenii să se adapteze la mașini? Pornind de la aceste întrebări, J. Lassègue identifică anumite zone de tensiune având ca obiect noțiunea de IA. Poate că cea mai importantă este tensiunea dintre cele două concepții ale scopului IA: inteligența artificială este destinată să înlocuiască oamenii (așa-numita IA puternică) sau să imite oamenii (IA slabă)?

Orice răspuns posibil trebuie să aibă componente în plan social, tehnic, cognitiv, etic etc., deoarece delegarea puterii la mașini nu poate fi făcută fără amenințarea retrogradării umane; în prezent, mulți oameni trăiesc cu teama de a-și pierde locul de muncă și de a fi înlocuiți de mașini care se presupune că au eficiență intelectuală sau practică superioară oamenilor. Cu toate acestea, înlocuirea unui om cu o mașină este o decizie eminamente umană care implică o structură de comandă într-o ierarhie socială, astfel că realitatea nu ar trebui, indiferent de performanța pe care mașinile o au, să scape persoanelor.

Analizând distincția dintre oameni și mașini, J. Lassègue subliniază că reflexivitatea și originalitatea gândirii au o specificitate umană. Sensul uman este esențial plurivoc, construit în interacțiune și perceput ca atare de către oameni. Este vorba despre o maleabilitate permanentă a sensului rezultată din interacțiuni de moment și care necesită evaluări continue din partea vorbitorilor[17]. Interacțiunile umane, în diverse împrejurări concrete, fac posibilă precizarea sensului unui cuvânt, a unui comportament, a unei vestimentații – toate acestea fiind supuse unor procese de evaluare și aprobare constante, în orice comunitate umană.

Pe de altă parte, în cazul procesării informațiilor într-un sistem de intrare-ieșire, sensul este definit în avans și rămâne fixat în timpul interacțiunii. Este adevărat că mașina poate memora toate sensurile deja întâlnite (într-un dicționar, de exemplu); însă, dicționarul nu oferă informații despre modul în care sensurile cuvintelor vor evolua în viitor.

Deși s-au creat mii de limbaje de programare, din punctul de vedere al expresivității lor matematice, acestea sunt identice (se spune că sunt funcții recursive). Proliferarea lor se explică nu prin diversitatea expresiei matematice, ci prin necesitatea de a răspunde nevoilor unor comunități specifice: comunitatea statisticienilor va avea nevoie de un limbaj de programare în care să fie ușor să ia medii, dar un astfel de limbaj nu va interesa un designer web care are nevoie de alte funcții.

Prin urmare, este foarte complicat ca oamenii să integreze propria construcție a sensului uman, atât de maleabilă, în procesele digitale, după cum este complicat să înțelegem natura relației om/mașină.

De asemenea, se pot identifica tensiuni cu privire la relația dintre mediu și modelele de acțiune care implică alegerile făcute în mod automat și tensiuni cu privire la natura cunoștințelor angajate de Inteligența artificială: IA este o descriere a realității efective a proceselor din creier? sau vizează atingerea unor obiective, indiferent de procesele implicate și care nu trebuie să semene cu inteligența umană?

Toate aceste întrebări rămân încă deschise… Cert este însă că informatica s-a generalizat treptat la toate practicile și cunoștințele umane, tinzând să proiecteze o viziune alfanumerică asupra lumii, sugerând că acesta este fundalul realității în sine. Totuși, această proiecție nu ar trebui luată ca valoare nominală, deoarece „calculul” nu are sfera globală care i se atribuie: existența proceselor incalculabile este un fapt dovedit în științele exacte (în logică) și în științele naturii (în fizică)[18].

DOWNLOAD FULL ARTICLE

[1] L.M. Stănilă, Inteligența Artificială. Dreptul penal și sistemul de justiție penală, Amintiri despre viitor, Editura Universul Juridic, 2020. Apoi, a se vedea, spre exemplu, pe universuljuridic.ro: B.C. Trandafirescu, Raportul juridic în mediul digital – o abordare din perspectiva teoriei generale a dreptului (21.12.2021); G. Manu, Impactul digitalizării asupra acțiunii administrative și dreptului administrative (11.11.2021); E. Hurubă, Digitalizarea executării silite (07.11.2021), G. Mihai, Provocările arbitrajului în era digitală (27.10.2021); M. Voicu, Cyberjustiția. Unele considerații asupra digitalizării procedurilor judiciare (09.10.2020); M. Dumitrescu, C. Donciu, Suntem pregătiți să permitem tehnologiei să ia decizii în locul nostru? (04.10.2021); X. Moldovan, Către o nouă etică digitală (22.09.2021); R. Matefi, Impactul Inteligenței Artificiale asupra drepturilor la egalitate și nediscriminare în lumina Propunerii de Regulament al Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind Inteligența Artificială (Legea privind Inteligența Artificială) și de modificare a anumitor acte legislative ale Uniunii (16.07.2021); S. Uscov, M. Morar, Scurte considerații privind răspunderea Inteligenței Artificiale în România sub unghiul mort al AI (26.08.2020); N.R. Dominte, Inteligența artificială versus inteligența umană (19.05.2020) etc.

A se vedea, pe juridice.ro: M. Duțu, „Justiția digitală” la momentul autodefinirii (15.11.2021); D. Mocanu, Inteligența artificială: nici inteligentă, nici artificială. Atlas of AI de Kate Crawford (26.10.2021); L. Tec, „Mașinării ca mine”: despre Drept și Inteligență Artificială (14.10.20220); C. Drăgușin, Revoluția inteligenței artificiale și domeniul juridic (21.11.2019); L. Tec, Viața noastră în noua eră a tehnologiei 5G și a inteligenței artificiale (27.08.2019); M.A. Hotca, Conștiința, conștiența, inteligența artificială și inteligența mixtă (19.07.2019), etc.

[2] F. Kort, Predicting Suprême Court Decisions Mathematically: a Quantitative Analysis of the “Rightto Counsel” Cases, American Political Science Review 1957, n° 51, p. 1 s.; J. A. Segal, Predicting Supreme Court Cases Probabilistically: the Search and Seizure Cases (1962-1981), American Political Science Review 1984, p. 891 s.; S. S. Nagel, Applying correlation analysis to case prediction, Texas Law Review 1963, p. 1006 s., citați de B. Barraud, Un algorithme capable de prédire les décisions des juges: vers une robotisation de la justice?, Les cahiers de la justice 2017 p. 121-139.

[3] R.C. Lawlor, What computers can do: analysis and prediction of judicial decisions, American Bar Association Journal, 1963, 49, p. 337, citat de B. Dondero, Justice prédictive: la fin de l’aléa judiciaire?, Recueil Dalloz 2017, p. 532.

[4] A. Aft, J. Blackman, C. M. Carpenter, FantasySCOTUS: Crowdsourcing a Prediction Market for the Supreme Court, Northwestern Journal of Technology & Intellectual Property 2012, n° 10, p. 125 s.; J. Blackman, M. J. Bommarito, D. M. Katz, Predicting the Behavior of the Supreme Court of the United States: A General Approach, SSRN Electronic Journal, 21.07.2014.

[5] S. Chassagnard-Pinet, Les usages des algorithmes en droit: prédire ou dire le droit?, Dalloz IP/IT 2017, p. 495.

[6] A. Garapon, J. Lassegue, Justice digitale, accepteriez-vous d’être jugés par des algorithmes?, PUF, 2018.

[7] A. Pembellot, Justice prédictive, solution ou simple reproduction du passé?, pe https://www.cyberjustice.ca, 2019.

[8] F. Pasquale, Black Box Society. Les algorithmes secrets qui contrôlent l’économie et l’information, Fyp Edition, citat de A. Pembellot pe https://www.cyberjustice.ca/en/2019/07/18/justice-predictive-solution-ou-simple-reproduction-du-passe/.

[9] B. Barraud, La croisée des savoirs – Un algorithme capable de prédire les décisions des juges: vers une robotisation de la justice?, Les cahiers de la justice 2017 p. 121.

[10] C. O’Neil, Weapons of Math Destruction, Crown, 2016 – https://www.theguardian.com/books/2016/oct/27/cathy-oneil-weapons-of-math-destruction-algorithms-big-data.

[11] Pentru informații detaliate, a se vedea pe https://www.enseignementsup-recherche.gouv.fr.

[12] Rapp. Villani, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, Doc. fr., mars 2018, disponibil pe https://www.enseignementsup-recherche.gouv.fr/cid128577/rapport-de-cedric-villani-donner-un-sens-a-l-intelligence-artificielle-ia.html.

[13] Loi n° 2016-1321 du 7 oct. 2016 pour une République numérique, JO n° 0235 du 8 oct.

[14] Filosof-epistemolog, cercetător la CNRS (Le Centre national de la recherche scientifique), Franța.

[15] J. Lassègue, L’Intelligence artificielle, technologie de la vision numérique du mond, Les cahiers de la justice, 2019 p. 205 și urm.

[16] S. Russell, P. Norvig, Artificial Intelligence: A Modern Approach, disponibilă pe http://aima.cs.berkeley.edu/.

[17] J. Lassègue, idem, Les cahiers de la justice, 2019, p.205 și urm.

[18] F. Bailly, G. Longo, Mathematiques et sciences de la nature. La singularite physique du vivant, Hermann, Paris, 2006, cap. 2, citați de J. Lassègue, op. cit.

Era digitală și justiția (I). Obiective, metode de proiectare a algoritmilor și consecințe ale folosirii IA în justiție was last modified: March 8th, 2022 by Andreea Ciurea

Only registered users can comment.

Arhiva Revista