Era digitală și justiția (II). Obstacole generale în calea dezvoltării IA în justiție. Condițiile pentru a avea instrumente de IA eficiente în justiție
Andreea Ciurea - februarie 4, 2022d) Incapacitatea adaptării deciziei judiciare la circumstanțele concrete ale unei spețe
Există limitări ale dezvoltării IA legate de natura specifică a activității judiciare, de necesitatea adaptării hotărârii la circumstanțele concrete ale unei spețe. Vrem să renunțăm, în favoarea predictibilității, la adaptarea deciziei judiciare raportat la caracteristicile specifice ale fiecărei spețe? Ne dorim un sistem penal care să nu lase putere de decizie judecătorului uman cu privire la pedeapsa aplicată sau un sistem informatic care codifică într-un mod automat condițiile de stabilire a domiciliului ale unui copil minor? Sancțiunea penală nu va mai fi legată strict de faptă și de autorul ei, ci se va adapta la previzibilitatea unei recidive atestate matematic.
Este o alegere mai mult politică decât juridică, de a decide că, pentru anumite dispute, este mai valoroasă o soluție previzibilă și sigură decât o soluție adaptabilă și mai puțin previzibilă.
Cert este că, indiferent de denumirea lor comercială, toate aplicațiile algoritmilor în justiție stabilesc tipuri de probabilități asupra rezultatului unui conflict interuman, tratând nu o poveste brută, ci fapte deja calificate legal. Construcția modelelor matematice se va baza pe o materie primă (pe hotărârile judecătorești deja pronunțate în aceste tipuri de litigii) și pe învățarea automată pentru a descoperi corelații de grupuri lexicale. Concret, aparatul va analiza, pe baza unor parametri identificați de proiectanți (pentru prestațiile compensatorii, de exemplu: durata căsătoriei, disproporția situației patrimoniale, vârsta și starea de sănătate a părților) posibilele legături cu soluții deja pronunțate de instanță (cuantumul prestațiilor stabilite prin hotărâri anterioare). Cu toate acestea, aplicarea acestei abordări într-un proces judiciar necesită prudență maximă, întrucât corelațiile lingvistice descoperite în decizii sunt departe de a putea fi interpretate ca relații cauză-efect, în toate situațiile[16].
e) Incapacitatea algoritmilor de a substitui legea însăși
Calculele probabilistice nu pot epuiza rolul legii. Se poate discuta aici despre problema utilizării baremelor judiciare: dacă aceste bareme au întotdeauna relevanță statistică, ele nu pot, prin simplul fapt al existenței lor, să substituie legea însăși, în special prin reducerea marjei de interpretare pe care norma de drept o oferă judecătorului.
Legea, deși imperfectă, este expresia unui proiect social, prin care un popor își stabilește valorile și prioritățile, pe când algoritmii ne impun, printr-un formalism științific aparent neutru, o nouă rațiune care este, în realitate, doar a proiectanților lor. În aceste condiții, democrația pare a fi înlocuită cu o nouă formă de aristocrație – o aristocrație digitală, cum o denumește magistratul francez Y. Meneceur[17].
f) Riscul decalajului digital
Vorbind despre aristocrația digitală, trebuie să adăugăm riscul decalajului digital[18], care există nu numai pentru persoanele în vârstă, ci și pentru tinerii care, deși știu să găsească filme și muzică pe Internet, nu sunt la fel de pricepuți în completarea formularelor computerizate.
Într-un Raport din 2019 al Avocatului Poporului (Apărătorul Drepturilor) din Franța se arăta că 20% dintre francezi nu au computer, 27% nu au un smartphone și peste 25% declară că au dificultăți în a găsi informații administrative pe internet[19]. În preambulul acestui Raport, se subliniază: „Dacă o singură persoană ar fi lipsită de drepturile sale din cauza digitalizării unui serviciu public, ar fi un eșec pentru democrația noastră și pentru Statul de drept”.
g) Riscul reproducerii discriminării
Și mai grav, modelele de învățare pot reproduce și agrava discriminarea. Diferitele tehnici de învățare automată par neutre în ceea ce privește valorile sociale, căci științele exacte care le conduc sunt un formalism. Pe de altă parte, utilizarea acestui formalism cu o metodă și date părtinitoare va duce în mod sistematic la rezultate părtinitoare.
Este deja celebru exemplul algoritmului COMPAS[20], utilizat în mod eficient în anumite state americane pentru a evalua pericolul indivizilor în vederea posibilei lor plasări în detenție provizorie sau pentru pronunțarea unei condamnări penale. Acest algoritm se bazează pe studii academice în criminologie și sociologie, pe diferite modele statistice și prelucrarea unui chestionar cu peste 130 de intrări, referitoare la persoana în cauză și la trecutul său judiciar fără nici o referire la originea sa etnică. Sistemul oferă apoi judecătorului „scoruri” diferite pe un orizont de doi ani: risc de recidivă, risc de comportament violent și risc de neprezentare pentru situații de detenție preventivă.
Însă, în mai 2016, reprezentanții ONG-ul ProPublica au analizat eficacitatea „predicțiilor” COMPAS asupra unei populații de aproape 10.000 de persoane arestate în ținutul Broward (Florida) între 2013 și 2014[21]. Acest studiu a găsit o rată relativ scăzută a „predicțiilor” corecte (61%) și analizând „falsurile pozitive”, a constatat că populațiile afro-americane erau ponderate cu risc mai mare de recidivă decât populațiile albe. În schimb, populațiile albe care au recidivat efectiv fuseseră de două ori mai clasificate ca fiind cu risc scăzut decât populațiile afro-americane. Așadar, fără a include etnia indivizilor, doar încrucișarea datelor (spre exemplu, locul de reședință) a supraponderat indirect acest aspect în detrimentul altor factori sociali individuali (educație, ocuparea forței de muncă, parcurs familial) și a condus la influențarea judecătorilor cu indicatori discriminatori. A reduce soarta unui individ la cea a grupului statistic căruia îi aparține nu înseamnă o reapariție a unei doctrine penale deterministe…?
Amintim aici și cazul „Loomis vs Wisconsin”[22]: un tânăr condamnat la șase ani de închisoare pentru fapte pe care le-a negat, pe baza unei evaluări făcute de software-ul COMPAS. El a contestat această decizie în fața Curții Supreme a statului Wisconsin, argumentând că a fost condamnat fără să știe cu exactitate ce informații au fost utilizate de instrument, că metodologia utilizată de acest software (care este secret comercial) a fost necunoscută judecătorilor care l-au folosit pentru a-l evalua și că această decizie nu ia în considerare dreptul său la o sentință individualizată. Curtea Supremă a respins recursul pe motiv că programul COMPAS este doar un instrument aflat în serviciul judecătorilor.
Problema este aceeași pentru cazurile civile, administrative sau comerciale: ar fi interesant, de exemplu, să examinăm dacă, pentru o serie de beneficii compensatorii în care situația conjugală și economică este echivalentă obiectiv, sumele „prezise” de algoritmi vor fi ponderate diferit în funcție de domiciliul părților. Dacă da, ce criterii, evidente sau nu, ar fi putut avea o influență? Fără transparență cu privire la aceste mecanisme, riscăm ca o „cutie neagră” să influențeze rezultatul unei dispute într-o manieră discreționară și să reproducă posibile inegalități.
h) Riscul înlocuirii statului de drept cu o societate guvernată de date
Există riscul înlocuirii actualului cadru de referință, respectiv a statului de drept, cu o societate guvernată de date[23], drum pe care ne îndreaptă aplicațiile formalismului matematic. Aceasta este o provocare majoră a timpului nostru: o societate guvernată de date (data driven society) ar fi mai eficient funcționabilă?[24]
Dreptul a devenit o țintă pentru antreprenorii care sunt în căutarea de noi piețe și care profită de aplicațiile IA pentru a dezvolta soluții comerciale într-un număr mare de sectoare (comerț, transporturi, urbanism, medicină etc.). În același timp, nevoia de a face răspunsul judiciar mai previzibil, combinată cu silogismul deciziilor judiciare, i-a făcut pe matematicieni să creadă că există material pentru exploatare, astfel că investitorii au sponsorizat dezvoltarea costisitoare a soluțiilor bazate pe modele matematice de învățare automată în domeniul judiciar.
Magistratul și cercetătorul francez Y. Meneceur atrage atenția asupra construirii unor „catedrale algoritmice complexe” – cu mari investiții financiare și umane – unde „tehno-evangheliștii” ne promit că dezvăluie un adevăr imanent, surprins din corelații de învățare automată[25]. Cu toate acestea, ne avertizează magistratul, acești „coloși” au fundații fragile, pentru că sistemele juridice rămân foarte deschise și o schimbare poate invalida decenii de construcție a jurisprudenței, în timp ce algoritmii sunt construiți, mai presus de toate, pe statistici ale evenimentelor din trecut.
i) Riscul unei „dejudiciarizări” forțate
Într-o primă etapă, se produce riscul unei accelerări intempestive și fragmentării actului de justiție: timpul prin termene, faptele prin procesarea în masă a documentelor, pledoarii tot mai absente sau limitate în timp și în puncte precise, judecăți pe cadre sau tratamentul separat al soluțiilor prin instrumentele așa-numitei justiții predictive.
IA este implementată în justiție pentru a răspunde la criticile cu privire la costul, încetinirea și imprevizibilitatea sa. Renunțăm la varii interpretări și dezbateri, dar câștigăm timp și previzibilitate.
Evident, reducerea limbajului oral și a tensiunii dezbaterii în favoarea ecranului afectează dimensiunea personală și pasională a oricărui proces. Nu mai este o privire pe care o avem în fața noastră, ci un ecran fără prezență, o voce fără origine. Conexiunea înlocuiește relația, corelația înlocuiește dovada. Această discontinuitate între a vedea, a auzi și a simți, între text și context, sărăcește experiența dreptății[26].
Abundența de date, omniprezența ecranelor, strategiile predictive sunt caracteristici ale revoluției digitale care afectează componentele funcției de a judeca și poate duce la o „dejudiciarizare forțată”.
Această intervenție „perturbatoare” are un impact direct asupra practicienilor Dreptului care sunt tot mai provocați de noua „justiție digitală”. Dar voi reveni asupra acestei problematici spinoase într-un studiu viitor.
3. Condiții generale pentru a avea un instrument de IA eficient în justiție
Pentru a avea un instrument eficient de IA care oferă informații diferiților actori ai justiției, ajutându-i și dându-le siguranță, este esențială întrunirea unor condiții prealabile:
a) Transparența algoritmilor
Orice algoritm se bazează pe o serie de alegeri în materie de reprezentare a observațiilor, măsurare a similarității sau criterii de optimitate. Dacă aceste opțiuni nu sunt controlate de utilizator, ci sunt automate, aparatul va avea propriile sale criterii de determinare.
Din punctul de vedere al proiectantului algoritmului, este important ca problema să fie gestionabilă matematic; pentru programator, confortul matematic constituie o prima regulă de alegere. Astfel, dacă este vorba de compararea a două texte pornind de la frecvența unei serii de cuvinte în interiorul lor, programul se va baza pe distanțele (pozitive sau negative) între aceste frecvențe. Pentru a neutraliza semnul pozitiv sau negative, care contează prea puțin pentru a verifica abaterile, se poate folosi pătratul abaterii sau valoarea sa absolută, iar rezultatele furnizate de algoritm vor fi diferite, în funcție de utilizarea valorii pătrate sau absolute.
Criteriul de măsurare a potrivirii dintre o predicție și răspuns observat în jurisprudența existentă reglează importanța acordată posibilelor erori. Astfel, să luăm cazul unei predicții binare („responsabil”/„non-responsabil”): eroare înseamnă a prezice „responsabil” într-o situație juridică în care justițiabilul nu ar trebui să răspundă sau a prezice „neresponsabil” într-un caz legal de răspundere. Criteriul de măsurare a potrivirii poate presupune că ambele erori sunt la fel de dăunătoare sau, dimpotrivă, să acorde o greutate mai mare primei; spre exemplu, în cazul predicției cuantumului unei despăgubiri, în funcție de criteriului ales, o predicție mai mare cu 10% pentru o indemnizație va fi sau nu considerată echivalentă cu o sub-predicție de 10%.
Astfel, cunoașterea precisă a datelor alese pentru alimentarea bazei de date și alegerea criteriul similarității sau al optimității constituie chei esențiale ale sistemului. Aceste opțiuni, aparent benigne și fără interes, vor decide, de fapt, orientările răspunsurilor și predicțiilor, fără ca nimeni să fi fost conștient sau să le fi gândit. Prin urmare, este responsabilitatea juriștilor să se asigure că fiecare acțiune operațională este verificată sub aspectul consecințelor sale.
b) Asigurarea imparțialității (fairness) și loialității (loyalty)
Abordarea mimetică adoptată de majoritatea algoritmilor de învățare înseamnă că formulele de predicție pe care le produc tind să întrețină prejudecățile prezente în bazele de date care le-au alimentat inițial. Din punct de vedere statistic, prejudecata este o eroare sistematică cu privire la un obiectiv de predicție.
Astfel, s-au observat prejudecăți sistematice în deciziile judecătorești bazate pe originea socială sau etnică a justițiabililor, pe care algoritmii, care „s-au instruit” pe baza acestor decizii, le-au reprodus fidel; există cercetări actuale care se concentrează pe posibilitatea de a detecta astfel de prejudecăți și a le corecta automat[27]. Aceasta implică, de exemplu, să ne asigurăm că, dacă spețele a doi litiganți diferă doar prin originea lor etnică, soluția furnizată de algoritm va fi aceeași (sancțiunea, valoarea compensației etc.).
Noțiunea de fairness utilizată în IA poate completa astfel noțiunea de loyalty (cu sensul de bună-credință), prima urmărind să corecteze astfel de prejudecăți în cadrul algoritmului însuși (rămâne de decis cine ar avea responsabilitatea pentru această intervenție), în timp ce a doua impune o corecție externă făcută de judecătorul uman. Doar în aceste condiții, contribuția sa poate fi considerabilă.
Cuvântul loialitate este frecvent folosit atât în discursurile juriștilor, cât și în cele ale specialiștilor în IA, dându-se uneori sensuri foarte diferite. Pentru juriști, Loialitatea, adesea legată de buna-credință, constituie un principiu transversal oricărei acțiuni în exercitarea unui drept, fiind menționată frecvent în relațiile contractuale în dreptul civil, în dreptul muncii, în desfășurarea proceselor etc.: „Atitudinea loială se referă la respectarea regulilor probității și onoarei”[28].
Loialitatea găsește un ecou special în materie de IA. Pe de o parte, în amonte de implementarea instrumentului, ne obligă să ne întrebăm despre sensul regulii înainte de a-i decide consecințele. Pe de altă parte, în aval, ne autorizează să ieșim din instrument ori de câte ori soluția furnizată contrazice noțiunea de loialitate, adică are ca rezultat o aplicare denaturată a regulilor. Așadar, raportat la IA, loialitatea presupune un control extern. În acest context, judecătorul uman poate corecta prejudecăți de fapt, legate de o situație de constrângere, sau prejudecăți sociale, legate de o situație de discriminare, de exemplu.
Am mai afirmat că legat de folosirea IA în justiție nu există neutralitate, există doar opțiuni care nasc întrebări asupra liniei de echilibru pe care dorim să o stabilim între răspunsul securizat, complet digital și răspunsul adaptat, pentru care omul rămâne cel mai bun garant[29]. Iar conceptele de fairness și loyalty, chiar înțelese ușor diferit de matematicieni și juriști, pot ajuta la trasarea acestei frontiere.
c) Nevoia unei abordări multidisciplinare
Pentru a face să se întâlnească dreptatea și IA, trebuie se întâlnească oamenii care le acționează. Pentru proiectarea instrumentelor de IA, să existe o echipă multidisciplinară formată din juriști, informaticieni, statisticieni, matematicieni, pentru o perioadă suficient de lungă, care să permită tuturor să se identifice și să înțeleagă ce face celălalt: juriștii să știe exact instrucțiunile care au fost date și specialiștii IT să poată împărtăși, în detaliu, alegerile cu care se confruntă și la care pot avea tendința de a răspunde implicit. Dificultatea este ca o astfel de echipă să se mențină în timp, datorită actualizărilor multiple pe care instrumentul le necesită. În caz contrar, instrumentul va scăpa treptat sub controlul designerilor.
În Franța, pe fondul intrării în vigoare a Legii nr. 222/2019 privind programarea 2018-2022 și reforma justiției[30], lege care vizează implementarea unor transformări digitale în sistemul judiciar francez, profesioniștii din domeniul juridic și-au manifestat îngrijorarea (demonstrații, articole științifice, interviuri etc.) față de riscurile unei digitalizări prost gândite, nu în sensul de a critica, în general, utilizarea digitalului în justiție, ci lipsa unui filtru, ca și cum totul ar fi bun în transformarea digitală[31].
O abordare doar administrativă, managerială și tehnică a problemelor reflectă o necunoaștere a funcțiilor judecătorului, care țin de raționament și motivare, adaptabilitate și loialitate. Este necesară o abordare umanistă și interumanistă a digitalizării justiției, o abordare relațională care ia în considerare atât interesele individuale ale părților, cât și relația lor în complexitatea ei rațională, emoțională și uneori inconștientă.
Desigur, faptul că existau analfabeți în trecut, nu a împiedicat trecerea la procedura scrisă. Tot astfel, și un analfabet digital poate cere ajutor unui avocat pentru a efectua pașii procedurali online.
Însă, adeseori, sentimentul de dreptate se naște din faptul sau posibilitatea ca justițiabilul să fie ascultat nemijlocit de un judecător. Este percepută ca fiind gravă lipsa cadrului judiciar responsabil de conținerea emoțiilor (principiul contradictorialității și al oralității, prezența fizică și judecătorul uman), corelată cu excesele rațiunii algoritmice și riscurile asociate capturii realului de către obiecte și persoane conectate[32].
Pentru a exista dreptate și nu aplicarea mecanică a unor reguli, cu consecințe care sunt uneori inadecvate sau chiar nedrepte, este necesar ca un judecător uman să intervină, cu puterea sa de a modula decizia și de a elimina automatismul pe care algoritmul îl creează.
Așadar, instrumentele IA trebuie să asigure respectarea principiilor fundamentale ale procedurii, cărora li se adaugă principiile specifice justiției digitale: un principiu de prezență fizică (care să ofere fiecărei părți dreptul de a iniția o audiere în persoană), principiul judecătorului natural și al cooperării cu noile tehnologii pentru cercetarea faptelor și legii[33].
4. Scurte concluzii
Sintetizând, IA necesită un control total al concepției sale. Nu putem lăsa spațiu pentru alegerile implicite de proiectare ‒ ceea ce este ușor, de regulă, pentru informaticieni. Înțelegerea aprofundată a modului în care funcționează IA este o responsabilitate a juriștilor și a factorilor de decizie din lumea juridică. Juriștii trebuie să fie conștienți de acest lucru și să stăpânească instrumentul, astfel încât IA să îi asculte, și nu invers.
Doar în aceste condiții, contribuția IA în justiție poate însemna un adevărat pas înainte, contribuind la o transformare sănătoasă a justiției.
[16] D. Cardon, À quoi servent les algorithmes. Nos vies à l’heure des big data, Seuil, La république des idées, 2015.
[17] Yannick Meneceur este magistrat francez, detașat la Consiliul Europei, cercetător asociat la IHEP (l’Institut des Hautes Études sur la Justice).
[18] E. Jeuland, Justice numérique, justice inique?, Dalloz, Les cahiers de la justice 2019, p. 193.
[19] A se vedea: Dématérialisation et inégalités d’accès au service public, 2019, pe www.defenseurdesdroits.fr.
[20] Correctional Offender Management Profiling for Alternative Sanctions – este un algoritm dezvoltat de societatea privată Equivant (ex-Northpointe): http://www.equivant.com/solutions/inmate-classification.
[21] Studiu disponibil pe https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
[22] Pentru detalii, a se vedea C.M. Drăgușin, State of Wisconsin v. Loomis sau intersecția dintre inteligența artificială și dreptul fundamental la un proces echitabil, în Revista „Dreptul” nr. 4/2020, p. 108; L.M. Stănilă, Inteligența Artificială. Dreptul penal și sistemul de justiție penală, Amintiri despre viitor, Editura Universul Juridic, București, 2020, pp. 175-178.
[23] Y. Meneceur, Intelligence artificielle et mémoire de la justice: le grand malentendu, Les cahiers de la justice 2019, p. 277.
[24] Despre dataism: a se vedea M. Hotca, Impactul inteligenţei artificiale (IA) asupra vieţii sociale şi afacerilor, disponibil pe https://www.universuljuridic.ro/impactul-inteligentei-artificiale-ia-asupra-vietii-sociale-si-afacerilor/2/.
[25] Y. Meneceur, idem. Despre „religia datelor”, a se vedea și Y.N. Harari, Homo deus, Ed. Polirom, București, 2018, p. 321.
[26] D. Salas, Data, écrans, prévisions, Les cahiers de la justice 2019, p. 201.
[27] S. Barocas, M. Hardt, A. Narayanan, Fairness in machine learning, NIPS Tutorial, 2017.
[28] W. Cherbonnier et al., La loyauté: de la règle morale au principe juridique, Rev. jur. Ouest, 2012. p. 327; disponibil și pe https://www.persee.fr/doc/juro_0990-1027_2012_num_25_3_4730.
[29] L. Pécaut-Rivolier, S. Robin, Justice et intelligence artificielle, préparer demain – ep. III, publicat pe Dalloz Actualité, la 17.04.2020.
[30] Disponibilă pe https://www.legifrance.gouv.fr. Consiliul Constituțional sesizat cu Legea privind reforma în domeniul programării și justiției 2018-2022 a confirmat (prin decizia CC nr. 2019-778), în general, constituționalitatea aspectelor digitale ale legii.
[31] E. Jeuland, Justice numérique, justice inique?, Dalloz, Les cahiers de la justice 2019, p. 193.
[32] E. Jeuland, Le juge et l’émotion, disponibil pe https://hal.archives-ouvertes.fr/hal-01790855/.
[33] E. Jeuland, Justice numérique, justice inique?, Les cahiers de la justice 2019, p. 193.
Arhive
- februarie 2024
- ianuarie 2024
- decembrie 2023
- noiembrie 2023
- octombrie 2023
- septembrie 2023
- august 2023
- iulie 2023
- iunie 2023
- mai 2023
- aprilie 2023
- martie 2023
- februarie 2023
- ianuarie 2023
- decembrie 2022
- noiembrie 2022
- octombrie 2022
- septembrie 2022
- august 2022
- iulie 2022
- iunie 2022
- mai 2022
- aprilie 2022
- martie 2022
- februarie 2022
- ianuarie 2022
- decembrie 2021
- noiembrie 2021
- octombrie 2021
- septembrie 2021
- august 2021
- iulie 2021
- iunie 2021
- mai 2021
- aprilie 2021
- martie 2021
- februarie 2021
- ianuarie 2021
- decembrie 2020
- noiembrie 2020
- octombrie 2020
- septembrie 2020
- august 2020
- iulie 2020
- iunie 2020
- mai 2020
- aprilie 2020
- martie 2020
- februarie 2020
- ianuarie 2020
- decembrie 2019
- noiembrie 2019
- octombrie 2019
- septembrie 2019
- august 2019
- iulie 2019
- iunie 2019
- mai 2019
- aprilie 2019
- martie 2019
- februarie 2019
- ianuarie 2019
- decembrie 2018
- noiembrie 2018
- octombrie 2018
- septembrie 2018
- august 2018
- iulie 2018
- iunie 2018
- mai 2018
- aprilie 2018
- martie 2018
- februarie 2018
- ianuarie 2018
- decembrie 2017
- noiembrie 2017
- octombrie 2017
- septembrie 2017
- august 2017
- iulie 2017
- iunie 2017
- mai 2017
- aprilie 2017
- martie 2017
- februarie 2017
- ianuarie 2017
- decembrie 2016
- noiembrie 2016
- octombrie 2016
- septembrie 2016
- august 2016
- iulie 2016
- iunie 2016
- mai 2016
- aprilie 2016
- martie 2016
- februarie 2016
- ianuarie 2016
- decembrie 2015
- noiembrie 2015
- octombrie 2015
- septembrie 2015
- august 2015
- iulie 2015
- iunie 2015
- mai 2015
- aprilie 2015
- martie 2015
- februarie 2015
- ianuarie 2015
Calendar
L | Ma | Mi | J | V | S | D |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Lasă un răspuns
Trebuie să fii autentificat pentru a publica un comentariu.