• Grup editorial Universul Juridic
    • Editura Universul Juridic
    • Editura Pro Universitaria
    • Editura Neverland
    • Libraria Ujmag.ro
  • Contact
  • Autentificare
  • Inregistrare
Skip to content
  • Acasă
  • Echipa editorială
  • Autori
  • Procesul de recenzare
  • Indexare BDI
  • Contact
  • PORTAL UNIVERSUL JURIDIC

Calendar

aprilie 2026
L Ma Mi J V S D
 12345
6789101112
13141516171819
20212223242526
27282930  
« mart.    

Archives

  • martie 2026
  • februarie 2026
  • ianuarie 2026
  • decembrie 2025
  • noiembrie 2025
  • octombrie 2025
  • septembrie 2025
  • august 2025
  • iulie 2025
  • iunie 2025
  • mai 2025
  • aprilie 2025
  • martie 2025
  • februarie 2025
  • ianuarie 2025
  • decembrie 2024
  • noiembrie 2024
  • octombrie 2024
  • septembrie 2024
  • august 2024
  • iulie 2024
  • iunie 2024
  • mai 2024
  • aprilie 2024
  • martie 2024
  • februarie 2024
  • ianuarie 2024
  • decembrie 2023
  • noiembrie 2023
  • octombrie 2023
  • septembrie 2023
  • august 2023
  • iulie 2023
  • iunie 2023
  • mai 2023
  • aprilie 2023
  • martie 2023
  • februarie 2023
  • ianuarie 2023
  • decembrie 2022
  • noiembrie 2022
  • octombrie 2022
  • septembrie 2022
  • august 2022
  • iulie 2022
  • iunie 2022
  • mai 2022
  • aprilie 2022
  • martie 2022
  • februarie 2022
  • ianuarie 2022
  • Supliment 2021
  • decembrie 2021
  • noiembrie 2021
  • octombrie 2021
  • septembrie 2021
  • august 2021
  • iulie 2021
  • iunie 2021
  • mai 2021
  • aprilie 2021
  • martie 2021
  • februarie 2021
  • ianuarie 2021
  • decembrie 2020
  • noiembrie 2020
  • octombrie 2020
  • septembrie 2020
  • august 2020
  • iulie 2020
  • iunie 2020
  • mai 2020
  • aprilie 2020
  • martie 2020
  • februarie 2020
  • ianuarie 2020
  • decembrie 2019
  • noiembrie 2019
  • octombrie 2019
  • septembrie 2019
  • august 2019
  • iulie 2019
  • iunie 2019
  • mai 2019
  • aprilie 2019
  • martie 2019
  • februarie 2019
  • ianuarie 2019
  • decembrie 2018
  • noiembrie 2018
  • octombrie 2018
  • septembrie 2018
  • august 2018
  • iulie 2018
  • iunie 2018
  • mai 2018
  • aprilie 2018
  • martie 2018
  • februarie 2018
  • ianuarie 2018
  • decembrie 2017
  • noiembrie 2017
  • octombrie 2017
  • septembrie 2017
  • august 2017
  • iulie 2017
  • iunie 2017
  • mai 2017
  • aprilie 2017
  • martie 2017
  • februarie 2017
  • ianuarie 2017
  • Supliment 2016
  • decembrie 2016
  • noiembrie 2016
  • octombrie 2016
  • septembrie 2016
  • august 2016
  • iulie 2016
  • iunie 2016
  • mai 2016
  • aprilie 2016
  • martie 2016
  • februarie 2016
  • ianuarie 2016
  • decembrie 2015
  • noiembrie 2015
  • octombrie 2015
  • septembrie 2015
  • august 2015
  • iulie 2015
  • iunie 2015
  • mai 2015
  • aprilie 2015
  • martie 2015
  • februarie 2015
  • ianuarie 2015

Categories

  • Abstract
  • Actualitate legislativă
  • Alte categorii
  • Din jurisprudența CCR
  • Din jurisprudența ÎCCJ
  • Editorial
  • HP
  • Interviu
  • Prefata
  • Recenzie de carte juridică
  • RIL
  • Studii, articole, opinii
  • Studii, discuții, comentarii (R.  Moldova și Ucraina)
  • Supliment 2016
  • Supliment 2021
Revista Universul JuridicRevistă lunară de doctrină și jurisprudență | ISSN 2393-3445
  • Acasă
  • Echipa editorială
  • Autori
  • Procesul de recenzare
  • Indexare BDI
  • Contact
  • PORTAL UNIVERSUL JURIDIC

Răspunderea penală în materia inteligenței artificiale

Ovidiu Predescu - septembrie 1, 2025

Autori:

Ovidiu Predescu

Vasile Varga

 

1. Introducere

Inteligența artificială (IA), fiind pe primul plan al celei de-a patra revoluții tehnico-științifice, este în măsură să determine modificări esențiale ale societății, mult mai spectaculoase și neașteptate decât precedentele, și, pe cale de consecință, să influențeze decisiv chiar cursul istoriei umanității. Totodată, aceasta prin sistemele sale și prin implicațiile în tot mai multe domenii de activitate (spre exemplu, sănătatea, educația, transporturile, serviciile financiare sau justiția), pe lângă lucrurile evident pozitive pe care le produce, ar putea reprezenta un pericol real pentru anumite valori sociale, în mod direct ori indirect, și în funcție de gravitatea atingerilor aduse acestora ar putea atrage și răspunderea penală. Aceasta este o nouă realitate în raport de care dreptul penal pe lângă procesul firesc de adaptare va fi nevoit să găsească răspunsuri la chestiuni necunoscute mai înainte în ceea ce privește răspunderea penală, prevenirea infracțiunilor și aplicarea pedepselor. Cu precizarea că în viitor sistemele de IA (SIA) ar putea deveni chiar subiecte de drept pe măsură ce se va augmenta nivelul lor de autonomie și de inteligență (una an-umană și cu performanțe apropiate sau care chiar pot depăși inteligența umană). Așa fiind, în situațiile în care aplicațiile IA ar avea un rol semnificativ în pregătirea și comiterea unor infracțiuni, acestea ar putea deveni chiar subiect de drept penal.

Față de această nouă realitate, dreptul penal trebuie să se adapteze și să răspundă la problematici inedite privind răspunderea pe care o guvernează, prevenirea infracțiunilor și aplicarea pedepselor.

2. Prezentul răspunderii penale în materia IA

La ora actuală roboţii cu IA, din punct de vedere penal, sunt asimilaţi unor simple unelte. Așadar, pentru a putea să fie trase la răs­pundere penală SIA, răspundere care este una personală, acestora trebuie mai întâi să le fie recunoscut statutul de subiect de drept penal. Ca atare, capacitatea penală este condiționată de recunoașterea unei personalități juridice. Așa fiind, o eventuală tragere la răspundere penală a IA ar necesita ca tehnologia respectivă să fie în prealabil calificată subiect de drept (persoană juridică). Acest demers implică mai multe modalități de intervenție asupra legislației penale (cod penal, cod de procedură penală, legi speciale cu dispoziții penale). Astfel, potrivit unei opinii există patru variante de acţiune, cu precizarea că unii autori susţin doar primele trei variante din enumerarea următoare: „păstrarea statu‑quoului legislativ, extinderea minimală a reglementării penale în ceea ce priveşte AI, realizarea unor schimbări legislative moderate în ceea ce privește răspunderea civilă şi intervenția legislativă efec­tivă în sensul introdu­cerii unor instituţii penale noi”. Deopotrivă, se formulează o întrebare pe deplin justificată: „Putem sau trebuie să impunem răspunderea penală sistemelor AI?” Dacă la prima parte a întrebării răspunsul este „Da, putem! (s. orig.)”, răspunsul la cea de‑a doua parte a întrebării este „Nu, nu ar trebui să facem asta… încă! (s. orig.)”. Referitor la primul răspuns se precizează că „Soluţiile legislative de creare a unor instituţii noi se pot dovedi dificil, însă nu imposibil de realizat. Echipe multidisciplinare de IT, jurişti teore­ticieni şi practicieni ar putea găsi cele mai bune soluţii în această privinţă”. În legătură cu cel de al doilea răspuns, ni se spune că acesta se bazează pe argumente atât de ordin tehnologic, cât şi de ordin legislativ. Aşadar, sub aspect tehnologic „stadiul actual de dezvoltare tehnică a AI, nu a permis crearea unor sisteme AI sub forma unor entităţi autonome, având (chiar şi un soi) de conştiinţă proprie (…) Un alt argument pentru amânarea recu­noaşterii calităţii de subiect de drept a siste­melor AI şi a posibilităţii angajării răspunderii lor penale este cel de ordin legislativ, mai bine spus lipsa cadrului legislativ necesar (…) Trebuie să fim pregătiţi pentru momentul în care sistemele AI vor semăna cu oamenii în termeni de conştiinţă (IAG, n.n.), dar grăbirea lucrurilor şi acceptarea unui nou subiect în domeniul dreptului ar putea avea consecinţe dramatice asupra sistemelor de drept”[1].

În prezent există mai multe obstacole juridice și tehnice care stau în calea recunoașterii unei răspunderi penale a IA. Referindu-ne la obstacolele de ordin juridic, mai întâi ar trebui menționat faptul că tragerea la răspundere penală a IA acum ar fi inutilă întrucât dispunerea unei sancțiuni penale împotriva acestei tehnologii ar fi de neînțeles. De ce de neînțeles? Deoarece, o pedeapsă aplicată potrivit prevederilor penale este în cea mai mare parte retributivă fiind de natură să provoace durere, suferință condamnatului și, totodată, să aducă atingere drepturilor sale patrimoniale și nepatrimoniale; în schimb, IA fiind un instrument, un lucru „nu prezintă nici suferință și nu comportă nici rușine, așa încât faptul de a se pronunța împotriva sa o pedeapsă privativă de libertate nu ar prezenta nicio utilitate… în calitate de produs al ingineriei umane IA face obiectul unui drept de proprietate. Or, numai bunurile pot fi apropriabile. De altfel, niciuna dintre propunerile relevante de ridicare a IA la statutul de subiect de drept nu tinde să abandoneze acest drept exercitat asupra sa. În atari condiții, inteligența artificială rămâne supusă regimului dreptului bunurilor, beneficiind totodată de prerogative aferente persoanelor. Poate să se manifeste astfel un efect de nivelare a celor două statute juridice și a drepturilor cărora le sunt subsecvente, cu implicațiile și generând temerile de rigoare”. Un al doilea obstacol juridic rezidă în aceea că IA nefiind o persoană umană „ar compromite buna punere în aplicare a răspunderii penale. Așa cum s-a precizat în doctrină, drepturile recunoscute acestor tehnologii ar intra în conflict cu cele cărora ea însăși le este obiect. O inteligență artificială hibridă între subiect și obiect de drept ce ar putea fi considerată ca autor al infracțiunii ar rămâne, totodată, inaptă juridic a îmbrăca o atare calitate”. Prin urmare, cel puțin la stadiul prezent de dezvoltare al IA, atât a tehnologiei ca atare, cât și a dreptului răspunderea ei penală „nu e fezabilă”, la care, așa cum s-a arătat, „se adaugă limitele tehnice ale respectivei tehnologii”. O a treia barieră juridică constă în faptul că  răspunderea penală implică săvârșirea unei fapte antisociale cu vinovăție de către autorul său; aceasta înseamnă că acela „care a avut un comportament contrar interesului general să fi acționat cu discernământ și liber arbitru”. Însă, în acest moment niciun sistem IA nu are discernământ și liber arbitru. Iar în lipsa acestor aptitudini, capacități nu poate exista vinovăție și, pe cale de consecință, răspundere penală. Pentru ca o faptă să atragă răspunderea penală autorul ei trebuie să aibă reprezentarea că actul său este unul antisocial și ilegal, adică să aibă discernământ. Iar lipsa discernământului este o cauză de exonerare de răspundere penală. Așa fiind, „se ridică problema că răspunderea penală a IA ar însemna recunoașterea existenței unei inteligențe artificiale lucide, care să fie capabilă să înțeleagă sensul activității sale, să judece, să recurgă la rațiune și la apreciere. În pofida promisiunilor în termeni de funcționare, inteligența artificială se limitează, la acest moment, la a simula procese cognitive umane, dând iluzia reproducerii funcțiilor de memorizare, de raționament ori chiar de învățare. Cu toate acestea, abordarea antropomorfă a respectivei tehnologii participă la supraestimarea capacităților sale, dincolo de cele deținute în mod real. Această „aparență de inteligență” nu e posibilă decât din cauza unui algoritm ce constituie o bază de reguli arbitrare implementate în tehnologie. Atunci când IA se confruntă cu o problemă de analiză și de aplicare de reguli conținute în algoritm, aceasta îi permite să deducă în mod logic și mecanic soluții pentru a o rezolva. Așadar, respectiva tehnologie nu poate deci raționa în mod intuitiv, să înțeleagă sensul soluției pe care o propune, să aibă o idee reală, și mai mult, să facă o reală experiență din existența sa pentru a-i ghida funcționarea sa. Această aparență de inteligență și de discernământ nu se bazează, în cele din urmă, decât pe analize de machine learning (s.orig.) ori deep learning (s.orig.) care condiționează în mod invariabil rezultatele sale de o pură logică algoritmică… Așa fiind, condițiile actuale de angajare a răspunderii penale nu permit să se impute o vinovăție inteligenței artificiale. În plus, din punctul de vedere al liberului arbitru răspunderea penală presupune ca individul să fie dotat cu libertatea de a acționa. Altfel spus, punerea în aplicare a răspunderii penale postulează că autorul să nu fie în mod esențial ori fundamental determinat. Totuși IA, oricât de autonomă ar fi ea, nu poate să-și stabilească singură câmpul de acțiune, misiunile ori, în general, metoda de funcționare. Ca atare, acțiunea și autonomia decizională a acestei tehnologii pornesc/depind în mod esențial de acțiunea umană”[2].

3. Perspective referitoare la răspunderea penală în domeniul IA

 La nivelul literaturii de specialitate în materie, există numeroase articole care subliniază că SIA sunt mai mult decât nişte simple unelte”[3]. De pildă, sunt autori care, pe de o parte, afirmă că „noțiunile clasice de responsabilitate, răspundere pentru produse și altele asemenea nu mai au capacitatea de a asigura înfăptuirea justiției și de a proteja interesele legitime relativ la această tehnologie (tehnologia IA, n.n.). Totodată, acești autori declară că unghiul din care este văzută inteligența artificială începe să se schimbe, de la simple unelte în mâinile unui utilizator, la ceva care depășește acest concept. Într-o asemenea viziune, schimbarea percepției are loc întrucât tehnologia exhibă o inteligență și o autonomie din ce în ce mai impresionantă, precum și abilități sociale, capacitate de a percepe și de a arăta empatie”[4].

Alți autori pun această schimbare relevantă în drept cu privire la depășirea statutului de obiect, instrument sau unealtă a IA și  accederea acesteia la unul mult superior nu pe seama evoluției tehnologiei, ci pe aceea a factorilor economici. Potrivit modului lor de a concepe aceste lucruri, schimbările majore în drept apar atunci când tehnologia creează niște riscuri economice crescute. După ce remarcă felul în care a evoluat inteligența artificială de-a lungul timpului acești autori ajung la concluzia că, în zilele noastre, tot mai mulți bani sunt investiți în domeniul IA iar veniturile din IA sunt în creștere accentuată de la un an la altul, fapt care, din punctul nostru de vedere, conduce la sporirea ritmului de dezvoltare a acesteia, precum și la o mai mare autonomie a SIA[5].

În doctrina penală română se regăsește, după părerea noastră, o opinie interesantă menită a deschide calea unor reflecții de fond, și anume aceea referitoare la latura subiectivă a infracțiunii și la raportul de cauzalitate. Totul pleacă de la realitatea conform căreia tehnologiile bazate pe IA prezintă un grad mai crescut de autonomie decât celelalte tehnologii existente. În acest fel, unele sisteme IA „denotă o asemenea autonomie, încât devine problematică capacitatea de prevedere a celui care o programează. În unele cazuri, inteligența artificială se ocupă chiar cu programarea inteligenței artificiale, astfel încât actorul uman este și mai îndepărtat. În atari condiții, demersul stabilirii poziției subiective, în special atunci când este vorba despre infracțiuni neintenționate, devine un demers extrem de dificil. Totodată, în materie de cauzalitate este problematic în ce măsură intervenția inteligenței artificiale nu rupe lanțul cauzal (risc deviat). Dacă inteligența artificială deviază de la programarea sa inițială, mai poate fi respectiva acțiune atribuită unei persoane? Dacă da, cui? Programatorului, producătorului sau utilizatorului?”[6]. Apreciem că acestea (latura subiectivă și legătura de cauzalitate) pe termen mediu rămân pe mai departe aspecte critice încă greu de rezolvat.

O altă întrebare, care a generat numeroase discuții în literatura de specialitate, se referă la: care anume dintre sistemele de IA ar urma să aibă personalitate juridică din perspectiva dreptului penal? S-a căzut de acord că nu orice tehnologie IA, precum aspiratorul-robot ori o mașină de spălat inteligentă, ar fi eligibilă pentru a dobândi capacitate penală, ci posibil doar roboții pe bază de IA care efectuează operațiuni peste un anumit prag de complexitate (spre exemplu, roboți precum Watson, un super-calculator creat de IBM. Acesta își desfășoară activitatea în domenii precum cercetarea genomului, pedagogie, cultivarea și selecția plantelor, diagnosticare medicală și multe altele. Este estimat că peste 70% dintre instituțiile bancare folosesc Watson). O problemă și mai complexă și complicată este acum legată de IA care creează ea însăși o altă IA, în special în situația în care noua IA creată să fie mai avansată decât cea care a creat-o. În aceste condiții, cine ar  trebui să aibă personalitate juridică, dacă  s-ar dori adoptarea unei astfel de măsuri?

Cu referire la această problemă, „cel mai frecvent se discută despre crearea unui sistem de înregistrare a IA, similar cu sistemul de înregistrare al persoanelor juridice sau similar cu cel al persoanelor fizice, cum se întâmplă în țări precum Japonia (Koseki). (…) ea este una importantă atunci când vine vorba despre o eventuală răspundere proprie a inteligenței artificiale. Deocamdată, reglementarea unui sistem de înregistrare pare a fi cea mai bună soluție cu privire la această chestiune”[7].

În asemenea circumstanțe este firesc să ne întrebăm, fără a căuta la acest moment să dăm răspunsuri exhaustive, ce drepturi și obligații corelative ar trebui să aibă roboții dotați cu IA, mai ales cei care deja au capacitatea de a crea proprietate intelectuală (de exemplu, cărți scrise în totalitate de IA care au fost apoi publicate, melodii compuse de IA etc.). În acest context, s-a considerat că sub aspect penal „ar fi important ca roboții să aibă drept de proprietate, întrucât astfel ar putea fi posibilă aplicarea unor pedepse pecuniare și obligarea acestora la repararea prejudiciului produs. Totodată, acordarea dreptului de a avea un patrimoniu propriu ar putea rezolva unele probleme la nivelul drepturilor de autor, probleme care se reflectă și în sfera penală (…) Un alt set de drepturi cu o semnificație importantă în dreptul penal ar fi reprezentat de recunoașterea unor drepturi la auto-conservare. Astfel de drepturi ar avea relevanță, spre exemplu, în ceea ce privește legitima apărare”[8].

Acestea sunt o parte dintre întrebările esențiale la care, în cel mai scut timp, atât teoreticienii, cât și practicienii dreptului penal ar trebui să găsească răspunsurile adecvate.

4. Câteva concluzii

A analiza răspunderea penală în cadrul revoluției IA, dar și a celorlalte tehnologii avansate precum robotica, calculul cuantic, biologia sintetică ș.a. „ne arată complexitatea problemei, transformările pe care le presupune și evoluțiile pe care le implică sub multiple aspecte”. În principiu, așa cum am relevat, acum numai subiectele de drept pot fi trase la răspundere penală, nu și SIA. Însă, dreptul penal nu poate rămâne pe loc. Așa fiind, la stadiul prezent „de dezvoltare tehnologică (a IA, n.n.) și de percepție juridică, forma de exprimare a specificului impactului în domeniu o reprezintă răspunderea penală pentru fapta IA. Un progres important în această privință îl reprezintă adoptarea de către UE a AI Act și a cadrului juridic astfel stabilit, care instituie reguli stricte pentru sistemele de IA cu grad ridicat de risc, aceasta în acord cu principiile de securitate, de transparență și de nediscriminare. Și dintr-un atare punct de vedere, RIA [Regulamentul (UE) 1689/2024, n.n.] constituie un veritabil model pentru atribuirea răspunderii penale în caz de faptă a IA”.

Regulamentul privind IA favorizează „o abordare administrativă preventivă mai degrabă, decât una penală stricto sensu... Se poate observa… că suntem în prezența unei perspective întemeiate pe descurajarea economică și mai puțin favorabilă unei incriminări penale directe, reflectând un compromis politic delicat… Dar, lucrul cel mai important pentru problematica implicată de analiza de față, respectiv anumite chestiuni fundamentale privind răspunderea penală a conceptorilor de sisteme de IA, rămâne încă în suspensie. Se pot menționa, în acest sens, imputabilitatea daunelor cauzate de sistemele autonome capabile de autoînvățare, care rămân sub un unghi mort din punct de vedere juridic, exceptarea softurilor de open source necomerciale, creându-se astfel o asimetrie de răspundere ș.a. …”[9].

Deopotrivă, în afara celor relevate privind situația dificilă a normativității în domeniu, se adaugă fără îndoială faptul că modelele de răspundere de lege lata nu sunt satisfăcătoare și pe deplin adecvate spre a face față provocărilor aferente, determinate de emergența aplicațiilor IA, din cauză că procesul de adaptare a legislației și jurisprudenței existente la noile mize stabilite de dezvoltarea rapidă a IA este limitat. În consecință, se impune urgent, prin forța evoluțiilor tehnico-juridice, găsirea de mecanisme juridice proprii, corespunzătoare și eficiente în noul context.

DOWNLOAD FULL ARTICLE

[1] Laura Maria Stănilă, Inteligenţa artificială. Dreptul penal şi sistemul de justiţie penală. Amintiri despre viitor, Ed. Universul Juridic, Bucureşti, 2020, pp. 107, 108, 109.

[2] A se vedea Mircea Duțu, Pentru o protecție penală a androizilor para umani. Sau când Dreptul bate filmul, disponibil pe

https://www.juridice.ro/essentials/8678/pentru-o-protectie-penala-a-androizilor-para-umani-sau-cand-dreptul-bate-filmul, accesat la 25 ianuarie 2025.

[3] Georgian‑Marcel Husti, Poate avea inteligența artificială capacitate penală?, în „Pro Lege” nr. 2/2022, pp. 41, 42, inclusiv notele de subsol 12‑16.

[4] Idem, Poate avea inteligența artificială capacitate penală? , disponibil pe https://www.universuljuridic.ro/poate-avea-inteligenta-artificiala-capacitate-penala/2/, accesat la 18 aprilie 2024 (a se vedea și nota nr. 5 a articolului).

[5] Idem, Poate avea inteligența artificială capacitate penală? (a se vedea și nota nr. 6 a articolului).

[6] Ibidem.

[7] Georgian‑Marcel Husti, Poate avea inteligenţa artificială capacitate penală?, în „Pro Lege” nr. 2/2022 (varianta electronică).

[8] Ibidem.

[9] Mircea Duțu, Răspunderea penală în contextul revoluției inteligenței artificiale, disponibil pe https://www.volterskluwer.com/ro-ro/expert-insights/premise-pentru-un-drept-penal-alia-mircea-dutu, accesat la 5 august 2025.

 

Lasă un răspuns Anulează răspunsul

Trebuie să fii autentificat pentru a publica un comentariu.

Arhive

  • martie 2026
  • februarie 2026
  • ianuarie 2026
  • decembrie 2025
  • noiembrie 2025
  • octombrie 2025
  • septembrie 2025
  • august 2025
  • iulie 2025
  • iunie 2025
  • mai 2025
  • aprilie 2025
  • martie 2025
  • februarie 2025
  • ianuarie 2025
  • decembrie 2024
  • noiembrie 2024
  • octombrie 2024
  • septembrie 2024
  • august 2024
  • iulie 2024
  • iunie 2024
  • mai 2024
  • aprilie 2024
  • martie 2024
  • februarie 2024
  • ianuarie 2024
  • decembrie 2023
  • noiembrie 2023
  • octombrie 2023
  • septembrie 2023
  • august 2023
  • iulie 2023
  • iunie 2023
  • mai 2023
  • aprilie 2023
  • martie 2023
  • februarie 2023
  • ianuarie 2023
  • decembrie 2022
  • noiembrie 2022
  • octombrie 2022
  • septembrie 2022
  • august 2022
  • iulie 2022
  • iunie 2022
  • mai 2022
  • aprilie 2022
  • martie 2022
  • februarie 2022
  • ianuarie 2022
  • Supliment 2021
  • decembrie 2021
  • noiembrie 2021
  • octombrie 2021
  • septembrie 2021
  • august 2021
  • iulie 2021
  • iunie 2021
  • mai 2021
  • aprilie 2021
  • martie 2021
  • februarie 2021
  • ianuarie 2021
  • decembrie 2020
  • noiembrie 2020
  • octombrie 2020
  • septembrie 2020
  • august 2020
  • iulie 2020
  • iunie 2020
  • mai 2020
  • aprilie 2020
  • martie 2020
  • februarie 2020
  • ianuarie 2020
  • decembrie 2019
  • noiembrie 2019
  • octombrie 2019
  • septembrie 2019
  • august 2019
  • iulie 2019
  • iunie 2019
  • mai 2019
  • aprilie 2019
  • martie 2019
  • februarie 2019
  • ianuarie 2019
  • decembrie 2018
  • noiembrie 2018
  • octombrie 2018
  • septembrie 2018
  • august 2018
  • iulie 2018
  • iunie 2018
  • mai 2018
  • aprilie 2018
  • martie 2018
  • februarie 2018
  • ianuarie 2018
  • decembrie 2017
  • noiembrie 2017
  • octombrie 2017
  • septembrie 2017
  • august 2017
  • iulie 2017
  • iunie 2017
  • mai 2017
  • aprilie 2017
  • martie 2017
  • februarie 2017
  • ianuarie 2017
  • Supliment 2016
  • decembrie 2016
  • noiembrie 2016
  • octombrie 2016
  • septembrie 2016
  • august 2016
  • iulie 2016
  • iunie 2016
  • mai 2016
  • aprilie 2016
  • martie 2016
  • februarie 2016
  • ianuarie 2016
  • decembrie 2015
  • noiembrie 2015
  • octombrie 2015
  • septembrie 2015
  • august 2015
  • iulie 2015
  • iunie 2015
  • mai 2015
  • aprilie 2015
  • martie 2015
  • februarie 2015
  • ianuarie 2015

Calendar

aprilie 2026
L Ma Mi J V S D
 12345
6789101112
13141516171819
20212223242526
27282930  
« mart.    

Categorii

  • Abstract
  • Actualitate legislativă
  • Alte categorii
  • Din jurisprudența CCR
  • Din jurisprudența ÎCCJ
  • Editorial
  • HP
  • Interviu
  • Prefata
  • Recenzie de carte juridică
  • RIL
  • Studii, articole, opinii
  • Studii, discuții, comentarii (R.  Moldova și Ucraina)
  • Supliment 2016
  • Supliment 2021

© 2023 Copyright Universul Juridic. Toate drepturile rezervate. | Theme by ThemeinProgress | Proudly powered by WordPress