Inteligența artificială și securitatea cibernetică în domeniul juridic: provocări, reglementări și perspective
Loredana Terec-Vlad - iunie 10, 20251. Introducere
În contextul transformării digitale accelerate, inteligența artificială (IA) devine un instrument tot mai prezent în arhitectura sistemelor juridice moderne, cu aplicații directe în analiza jurisprudenței, redactarea automată de documente, gestionarea dosarelor și chiar în luarea unor decizii preliminare în materie judiciară. Deși aceste progrese tehnologice promit eficientizarea actului de justiție și creșterea accesibilității acestuia, ele generează simultan provocări majore legate de securitatea cibernetică, protecția datelor cu caracter personal și respectarea drepturilor fundamentale ale omului.
În paralel, amenințările cibernetice devin tot mai sofisticate, vizând infrastructurile critice ale sistemului judiciar, inclusiv bazele de date ale instanțelor, platformele de comunicare electronică și sistemele informatice ale autorităților publice. Această vulnerabilitate este amplificată de utilizarea IA, care poate fi exploatată atât ca mijloc de apărare cibernetică, cât și ca vector de atac, prin manipularea algoritmică, deepfakes sau automatizarea atacurilor informatice.
Din perspectivă juridică, necesitatea unui cadru normativ clar și adaptabil este imperativă. Uniunea Europeană a răspuns acestor provocări prin adoptarea Regulamentului (UE) 2024/1689 privind inteligența artificială (AI Act), care introduce obligații stricte pentru sistemele de IA utilizate în domenii sensibile, inclusiv justiția. Totodată, instrumente juridice precum Regulamentul (UE) 2016/679 (GDPR) și Directiva (UE) 2022/2555 (NIS 2) completează acest cadru, vizând protecția datelor și securitatea rețelelor informatice.
Această lucrare își propune să analizeze interacțiunea complexă dintre IA și securitatea cibernetică în domeniul juridic, dintr-o perspectivă integrată: tehnologică, normativă și etică. Vor fi examinate principalele riscuri și vulnerabilități, reglementările în vigoare și perspectivele legislative, în vederea identificării unor soluții viabile pentru protejarea eficientă a sistemului de justiție în era digitală.
2. Inteligența artificială în domeniul juridic
Progresul rapid al tehnologiei digitale și integrarea inteligenței artificiale în domeniul juridic deschid noi perspective pentru administrarea justiției, dar generează în același timp provocări juridice, etice și instituționale. IA promite eficiență sporită, consistență decizională și acces îmbunătățit la actul de justiție, însă ridică întrebări privind transparența algoritmică, răspunderea juridică și respectarea drepturilor fundamentale.
Așadar, inteligența artificială redefinește în mod accelerat structura și funcționarea societății contemporane, inclusiv în domenii profund reglementate și tradițional conservatoare, precum cel juridic. Într-un context în care volumul informațional și complexitatea litigiilor cresc exponențial, aplicarea tehnologiilor IA în activitățile juridice promite eficiență, coerență decizională și acces sporit la justiție. Cu toate acestea, utilizarea acestor tehnologii ridică provocări semnificative de natură normativă, etică și instituțională.
Domeniul juridic se bazează pe principii fundamentale precum echitatea, transparența, răspunderea și respectarea drepturilor procesuale. Or, introducerea sistemelor algoritmice – fie în activitatea avocaților, fie în cea a instanțelor – implică riscuri majore: opacitatea decizională a sistemelor IA (problema „cutiei negre”), posibilele discriminări algoritmice și dificultatea trasării răspunderii juridice în caz de eroare sau abuz.
Astfel, este necesară o analiză atentă a modului în care inteligența artificială poate fi integrată în mod legitim și responsabil în activitatea juridică. În egală măsură, trebuie identificate limitele și condițiile de utilizare a IA, în raport cu principiile statului de drept și standardele europene și internaționale privind drepturile omului.
2.1. Aplicațiile inteligenței artificiale în justiție
Inteligența artificială a devenit un instrument din ce în ce mai relevant în administrația justiției, într-un context marcat de digitalizarea instituțiilor publice, nevoia de eficientizare a actului de justiție și creșterea volumului de cauze. Utilizarea IA în acest domeniu vizează nu doar automatizarea proceselor administrative, ci și susținerea activității decizionale a judecătorilor, avocaților și altor profesioniști ai dreptului.
Așadar, domeniile de aplicare a IA în justiție sunt:
1. Analiza predictivă a hotărârilor judecătorești
IA este utilizată pentru a identifica modele recurente în jurisprudență, ajutând astfel la estimarea probabilității unei soluții judiciare într-un anumit tip de cauză. Aceste aplicații sunt întâlnite în special în sisteme de tip predictive justice, cum ar fi sistemul „Predictice” în Franța sau „Lex Machina” în SUA[1].
Deși aceste instrumente pot sprijini avocații în formularea strategiilor procesuale, există riscul ca justițiabilii sau chiar judecătorii să fie influențați de o abordare statistică a dreptății, ceea ce contravine ideii de judecată individualizată[2].
2. Automatizarea redactării actelor juridice
IA este folosită în redactarea automată a contractelor, cererilor de chemare în judecată, întâmpinărilor și altor documente juridice standardizate. Tehnologia de tip Natural Language Processing (NLP) permite generarea de conținut coerent, în acord cu modelele juridice preexistente.
Această funcționalitate reduce considerabil timpul de lucru al juriștilor, dar poate duce la o uniformizare excesivă a documentelor și la omiterea unor elemente de nuanță necesare în cazurile atipice[3].
3. Clasificarea cauzelor și trierea automată a dosarelor
Instanțele pot utiliza IA pentru a repartiza automat cauzele în funcție de materie, complexitate sau urgență. Spre exemplu, în Estonia a fost testat un sistem pilot de IA pentru soluționarea cererilor de valoare redusă[4].
Deși eficiența acestor sisteme este incontestabilă, apar îngrijorări privind criteriile de clasificare și posibilul efect discriminatoriu al unor algoritmi antrenați pe date istorice distorsionate.
4. Suport pentru activitatea judecătorilor
IA poate oferi recomandări privind practica judiciară, temeiurile legale relevante sau termenele procesuale. Spre exemplu, sistemele de tip legal analytics pot furniza informații privind durata medie a soluționării unor tipuri de cauze sau frecvența admiterii unor excepții.
Este esențial, însă, ca astfel de recomandări să nu fie percepute ca obligatorii sau normative, ci doar ca instrumente de sprijin[5].
2.2. Provocări juridice fundamentale
Utilizarea inteligenței artificiale în domeniul juridic generează o serie de provocări care ating fundamentele sistemului de drept: de la respectarea principiului legalității, la garantarea unui proces echitabil, transparența deciziilor și răspunderea juridică pentru erorile algoritmice. O reglementare atent calibrată este esențială pentru a evita substituirea raționamentului juridic uman cu un determinism tehnologic lipsit de responsabilitate.
1. Transparența și motivarea deciziei
Principiul motivării hotărârilor judecătorești este consacrat în toate sistemele de drept continental și derivă direct din dreptul la un proces echitabil[6]. Sistemele IA bazate pe învățare automată (deep learning) pot genera recomandări fără a oferi o explicație clară privind criteriile utilizate, ceea ce contravine exigențelor legale privind motivarea.
Acest fenomen este cunoscut drept opacitate algoritmică, iar riscul său major este afectarea încrederii în justiție. Persoanele vizate de o decizie trebuie să înțeleagă de ce s-a luat acea decizie și să o poată contesta. Sistemele IA care nu pot explica rezultatele lor devin astfel incompatibile cu cerințele constituționale și convenționale privind motivarea actului jurisdicțional[7].
2. Răspunderea juridică și IA
În cazul unei erori sau al unei decizii eronate generate (sau influențate) de un sistem de inteligență artificială, se pune problema atribuirii răspunderii. Spre exemplu, dacă un algoritm clasifică greșit o cauză sau oferă o soluție discriminatorie, cine răspunde juridic?
Răspunderea poate fi analizată din mai multe perspective:
– Răspunderea dezvoltatorului software (delictuală sau contractuală);
– Răspunderea autorității judiciare care implementează tehnologia fără evaluare prealabilă;
– Răspunderea distribuită, în cazul în care mai mulți actori participă la crearea și folosirea sistemului IA[8].
Lipsa unui cadru juridic clar privind răspunderea pentru IA rămâne una dintre cele mai semnificative lacune la nivel european și național. AI Act nu oferă norme directe privind răspunderea civilă, dar Comisia Europeană a propus un AI Liability Directive complementar, aflat în curs de adoptare[9].
3. Neutralitatea și bias-ul algoritmic
Un pericol major al utilizării IA în justiție este bias-ul algoritmic – adică discriminarea indirectă cauzată de date istorice părtinitoare sau incomplete. Sistemele de justiție predictivă pot învăța din jurisprudență anterioară care reflectă inegalități structurale, perpetuând astfel decizii discriminatorii[10].
Aceasta încalcă:
– principiul egalității în fața legii (art. 16 din Constituția României);
– interdicția discriminării (art. 14 din CEDO);
– și normele GDPR privind profilarea automatizată (art. 22).
Obligația juridică este de a implementa mecanisme de audit și corectare a bias-ului în algoritmi, cu intervenție umană reală asupra rezultatelor automate.
4. Drepturile fundamentale și IA
Drepturile fundamentale pot fi afectate de utilizarea necontrolată a IA în justiție, în special:
– dreptul la apărare – dacă accesul la logica internă a algoritmului este restricționat;
– dreptul la un proces echitabil – dacă IA influențează verdictul în mod netransparent;
– dreptul la protecția datelor – atunci când sistemele utilizează informații sensibile fără consimțământ sau fără temei legal adecvat[11].
Pentru a respecta aceste drepturi, sistemele IA din justiție trebuie să fie:
– explicabile (explainable AI);
– auditate;
– și controlate uman, conform principiului human in the loop.
5. Accesul la justiție și inegalitatea digitală
Deși IA poate facilita accesul la justiție, în special pentru justițiabilii fără cunoștințe juridice, ea poate agrava și inegalitățile digitale, mai ales în rândul persoanelor defavorizate sau fără competențe digitale. Această problemă are o dimensiune constituțională și socială, necesitând politici publice de incluziune digitală.
3. Reglementarea juridică a inteligenței artificiale în domeniul justiției
Inteligența artificială (IA) a devenit una dintre cele mai disruptive și transformatoare tehnologii ale secolului al XXI-lea, cu aplicații extinse în multiple domenii, inclusiv în sfera justiției. Utilizarea sistemelor IA pentru analizarea probelor, generarea de modele predictive sau susținerea procesului decizional ridică nu doar oportunități semnificative, ci și provocări profunde din punct de vedere juridic, etic și instituțional.
Justiția, ca fundament al statului de drept, presupune respectarea unor principii intangibile precum independența judecătorului, egalitatea în fața legii, motivarea hotărârii și protecția drepturilor fundamentale. Introducerea tehnologiilor de tip IA în acest context sensibil impune o reflecție juridică atentă, pentru a preveni apariția unei „justiții algoritmice” care ar putea compromite transparența, imparțialitatea și caracterul uman al actului jurisdicțional.
În acest sens, reglementarea juridică a IA în domeniul justiției devine o necesitate imperativă. Normele juridice trebuie să asigure, pe de o parte, controlul democratic al tehnologiilor, iar pe de altă parte, protecția efectivă a persoanelor împotriva posibilelor abuzuri sau erori algoritmice. Uniunea Europeană a făcut pași importanți în acest sens prin adoptarea AI Act, primul regulament supranațional care clasifică și normează utilizarea sistemelor IA în funcție de riscurile generate.
Scopul acestei analize este de a examina cadrul normativ aplicabil utilizării inteligenței artificiale în domeniul justiției, cu accent pe reglementările europene și implicațiile acestora asupra ordinii juridice interne. Studiul are în vedere atât fundamentele de drept constituțional și procesual, cât și standardele internaționale privind protecția drepturilor omului și etica judiciară. Printr-o abordare critică și contextualizată, se urmărește identificarea punctelor forte și a lacunelor actuale ale reglementării, în vederea formulării unor direcții de dezvoltare legislativă coerentă și sustenabilă.
• Nevoia de reglementare specifică în justiție
Aplicarea inteligenței artificiale în sistemul judiciar implică provocări normative aparte. Având în vedere natura esențială a dreptului la un proces echitabil și riscul afectării drepturilor fundamentale prin decizii automatizate, utilizarea IA în justiție necesită un cadru juridic distinct, mai strict decât în alte domenii.
În lipsa unor norme clare, există riscul ca tehnologiile să fie aplicate în mod netransparent, cu potențial de discriminare, afectând încrederea în sistemul judiciar și subminând principiile statului de drept[12].
• Reglementarea la nivelul Uniunii Europene: AI Act
În 2024, Uniunea Europeană a adoptat Regulamentul (UE) 2024/1689 privind inteligența artificială (AI Act), primul cadru legal general din lume care reglementează IA. Acesta stabilește o clasificare a sistemelor IA în funcție de nivelul de risc: inacceptabil, ridicat, limitat și minim.
Sistemele IA utilizate în justiție sunt încadrate în categoria „risc ridicat”, ceea ce atrage obligații stricte pentru furnizori și utilizatori, cum ar fi:
– evaluări prealabile de conformitate;
– garanții privind transparența și motivarea deciziei;
– intervenție și supraveghere umană obligatorie;
– audit și înregistrare automată a procesului decizional[13].
DOWNLOAD FULL ARTICLE[1] J.-B. Jeannin, L’Intelligence artificielle et la justice prédictive, Revue de droit judiciaire, nr. 3/2021, pp. 215-228.
[2] D. Hervieu, Justice prédictive ou prévisible?, Dalloz actualité, 2020.
[3] A. Bălan, Automatizarea documentelor juridice: avantaje și riscuri, RRDA nr. 4/2022, pp. 47-55.
[4] European Commission, Artificial Intelligence in the Judiciary – Estonia’s pilot project, 2022.
[5] S. Slokenberga, Artificial Intelligence in Judicial Decision-Making: Transparency and the Rule of Law, ERA Forum, nr. 2/2023.
[6] Art. 6 din Convenția Europeană a Drepturilor Omului și art. 21 din Legea nr. 304/2022 privind organizarea judiciară.
[7] S. Wachter, B. Mittelstadt, C. Russell, “Counterfactual explanations without opening the black box: Automated decisions and the GDPR”, Harvard Journal of Law & Technology, Vol. 31, 2018.
[8] M. Ebers et al., Artificial Intelligence and the Law in Europe: Transversal Perspectives, Hart Publishing, 2022, pp. 143–158.
[9] European Commission, Proposal for a Directive on adapting liability rules to the digital age and AI, COM(2022) 496 final.
[10] Barocas, S., Selbst, A., “Big Data’s Disparate Impact”, California Law Review, Vol. 104, 2016.
[11] Regulamentul (UE) 2016/679 (GDPR), art. 22 și art. 5 privind legalitatea și transparența prelucrării datelor.
[12] C. S. Călina, Inteligența artificială și statul de drept, RRDP nr. 1/2023, pp. 33-45.
[13] Regulamentul (UE) 2024/1689 al Parlamentului European și al Consiliului din 13 martie 2024 privind normele armonizate referitoare la inteligența artificială (AI Act).
Arhive
- martie 2026
- februarie 2026
- ianuarie 2026
- decembrie 2025
- noiembrie 2025
- octombrie 2025
- septembrie 2025
- august 2025
- iulie 2025
- iunie 2025
- mai 2025
- aprilie 2025
- martie 2025
- februarie 2025
- ianuarie 2025
- decembrie 2024
- noiembrie 2024
- octombrie 2024
- septembrie 2024
- august 2024
- iulie 2024
- iunie 2024
- mai 2024
- aprilie 2024
- martie 2024
- februarie 2024
- ianuarie 2024
- decembrie 2023
- noiembrie 2023
- octombrie 2023
- septembrie 2023
- august 2023
- iulie 2023
- iunie 2023
- mai 2023
- aprilie 2023
- martie 2023
- februarie 2023
- ianuarie 2023
- decembrie 2022
- noiembrie 2022
- octombrie 2022
- septembrie 2022
- august 2022
- iulie 2022
- iunie 2022
- mai 2022
- aprilie 2022
- martie 2022
- februarie 2022
- ianuarie 2022
- Supliment 2021
- decembrie 2021
- noiembrie 2021
- octombrie 2021
- septembrie 2021
- august 2021
- iulie 2021
- iunie 2021
- mai 2021
- aprilie 2021
- martie 2021
- februarie 2021
- ianuarie 2021
- decembrie 2020
- noiembrie 2020
- octombrie 2020
- septembrie 2020
- august 2020
- iulie 2020
- iunie 2020
- mai 2020
- aprilie 2020
- martie 2020
- februarie 2020
- ianuarie 2020
- decembrie 2019
- noiembrie 2019
- octombrie 2019
- septembrie 2019
- august 2019
- iulie 2019
- iunie 2019
- mai 2019
- aprilie 2019
- martie 2019
- februarie 2019
- ianuarie 2019
- decembrie 2018
- noiembrie 2018
- octombrie 2018
- septembrie 2018
- august 2018
- iulie 2018
- iunie 2018
- mai 2018
- aprilie 2018
- martie 2018
- februarie 2018
- ianuarie 2018
- decembrie 2017
- noiembrie 2017
- octombrie 2017
- septembrie 2017
- august 2017
- iulie 2017
- iunie 2017
- mai 2017
- aprilie 2017
- martie 2017
- februarie 2017
- ianuarie 2017
- Supliment 2016
- decembrie 2016
- noiembrie 2016
- octombrie 2016
- septembrie 2016
- august 2016
- iulie 2016
- iunie 2016
- mai 2016
- aprilie 2016
- martie 2016
- februarie 2016
- ianuarie 2016
- decembrie 2015
- noiembrie 2015
- octombrie 2015
- septembrie 2015
- august 2015
- iulie 2015
- iunie 2015
- mai 2015
- aprilie 2015
- martie 2015
- februarie 2015
- ianuarie 2015
Calendar
| L | Ma | Mi | J | V | S | D |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | ||
| 6 | 7 | 8 | 9 | 10 | 11 | 12 |
| 13 | 14 | 15 | 16 | 17 | 18 | 19 |
| 20 | 21 | 22 | 23 | 24 | 25 | 26 |
| 27 | 28 | 29 | 30 | |||
Lasă un răspuns
Trebuie să fii autentificat pentru a publica un comentariu.