• Grup editorial Universul Juridic
    • Editura Universul Juridic
    • Editura Pro Universitaria
    • Editura Neverland
    • Libraria Ujmag.ro
  • Contact
  • Autentificare
  • Inregistrare
Skip to content
  • Acasă
  • Echipa editorială
  • Autori
  • Procesul de recenzare
  • Indexare BDI
  • Contact
  • PORTAL UNIVERSUL JURIDIC

Calendar

mai 2025
L Ma Mi J V S D
 1234
567891011
12131415161718
19202122232425
262728293031  
« apr.    

Archives

  • aprilie 2025
  • martie 2025
  • februarie 2025
  • ianuarie 2025
  • decembrie 2024
  • noiembrie 2024
  • octombrie 2024
  • septembrie 2024
  • august 2024
  • iulie 2024
  • iunie 2024
  • mai 2024
  • aprilie 2024
  • martie 2024
  • februarie 2024
  • ianuarie 2024
  • decembrie 2023
  • noiembrie 2023
  • octombrie 2023
  • septembrie 2023
  • august 2023
  • iulie 2023
  • iunie 2023
  • mai 2023
  • aprilie 2023
  • martie 2023
  • februarie 2023
  • ianuarie 2023
  • decembrie 2022
  • noiembrie 2022
  • octombrie 2022
  • septembrie 2022
  • august 2022
  • iulie 2022
  • iunie 2022
  • mai 2022
  • aprilie 2022
  • martie 2022
  • februarie 2022
  • ianuarie 2022
  • Supliment 2021
  • decembrie 2021
  • noiembrie 2021
  • octombrie 2021
  • septembrie 2021
  • august 2021
  • iulie 2021
  • iunie 2021
  • mai 2021
  • aprilie 2021
  • martie 2021
  • februarie 2021
  • ianuarie 2021
  • decembrie 2020
  • noiembrie 2020
  • octombrie 2020
  • septembrie 2020
  • august 2020
  • iulie 2020
  • iunie 2020
  • mai 2020
  • aprilie 2020
  • martie 2020
  • februarie 2020
  • ianuarie 2020
  • decembrie 2019
  • noiembrie 2019
  • octombrie 2019
  • septembrie 2019
  • august 2019
  • iulie 2019
  • iunie 2019
  • mai 2019
  • aprilie 2019
  • martie 2019
  • februarie 2019
  • ianuarie 2019
  • decembrie 2018
  • noiembrie 2018
  • octombrie 2018
  • septembrie 2018
  • august 2018
  • iulie 2018
  • iunie 2018
  • mai 2018
  • aprilie 2018
  • martie 2018
  • februarie 2018
  • ianuarie 2018
  • decembrie 2017
  • noiembrie 2017
  • octombrie 2017
  • septembrie 2017
  • august 2017
  • iulie 2017
  • iunie 2017
  • mai 2017
  • aprilie 2017
  • martie 2017
  • februarie 2017
  • ianuarie 2017
  • decembrie 2016
  • noiembrie 2016
  • octombrie 2016
  • septembrie 2016
  • august 2016
  • iulie 2016
  • iunie 2016
  • mai 2016
  • aprilie 2016
  • martie 2016
  • februarie 2016
  • ianuarie 2016
  • decembrie 2015
  • noiembrie 2015
  • octombrie 2015
  • septembrie 2015
  • august 2015
  • iulie 2015
  • iunie 2015
  • mai 2015
  • aprilie 2015
  • martie 2015
  • februarie 2015
  • ianuarie 2015

Categories

  • Abstract
  • Actualitate legislativă
  • Alte categorii
  • Din jurisprudența CCR
  • Din jurisprudența ÎCCJ
  • Editorial
  • HP
  • Interviu
  • Prefata
  • Recenzie de carte juridică
  • RIL
  • Studii, articole, opinii
  • Studii, discuții, comentarii (R.  Moldova și Ucraina)
  • Supliment 2016
  • Supliment 2021
Revista Universul JuridicRevistă lunară de doctrină și jurisprudență | ISSN 2393-3445
  • Acasă
  • Echipa editorială
  • Autori
  • Procesul de recenzare
  • Indexare BDI
  • Contact
  • PORTAL UNIVERSUL JURIDIC

Considerații referitoare la impactul inteligenței artificiale asupra dreptului civil român

Andrei Duțu-Buzura - aprilie 14, 2025

Introducere

Inteligența artificială (IA) a evoluat dintr-un concept teoretic de nișă într-o realitate tehnologică omniprezentă, marcând una dintre cele mai rapide și profunde revoluții tehnologice din istorie[1]. Algoritmii inteligenți și sistemele autonome influențează deja multiple aspecte ale vieții sociale și economice, generând totodată provocări juridice semnificative. În fața acestei evoluții exponențiale, dreptul – în special dreptul civil – se confruntă cu necesitatea de a adapta concepte tradiționale la noi realități. Dacă în primă fază guvernanța IA s-a bazat pe principii etice și instrumente de soft law, în ultimii ani asistăm la o tranziție către reglementări juridice hard law menite să controleze și să integreze IA în mod responsabil[2]. Atât la nivelul Uniunii Europene, cât și în România, au luat naștere inițiative normative care urmăresc asigurarea unui cadru legal sigur și predictibil pentru dezvoltarea și utilizarea IA, evitând totodată riscurile potențiale pentru drepturile și interesele legitime ale persoanelor.

În dreptul civil român, principala provocare constă în a identifica măsura în care instituțiile tradiționale – precum contractele, regimul bunurilor, răspunderea civilă sau statutul juridic al persoanelor – pot fi aplicate, sau trebuie modificate, în contextul utilizării pe scară largă a sistemelor de inteligență artificială. Codul civil actual (adoptat în 2009, intrat în vigoare în 2011) nu conține referiri exprese la IA, ceea ce ridică problema interpretării și adaptării normelor existente pentru situații neprevăzute la momentul redactării lor. În paralel, la nivelul UE se conturează un veritabil „drept al inteligenței artificiale”, prin acte normative precum Regulamentul UE privind IA (așa-numitul AI Act, adoptat în 2024)[3] și proiecte de directive privind răspunderea civilă pentru daunele cauzate de IA[4], acestea din urmă fiind, pentru moment, retrase din procedura legislativă (februarie 2025). Totuși, aceste evoluții pun bazele unui cadru legal unitar în spațiul european, la care România va trebui să se racordeze.

Scopul studiului de față este de a analiza, într-o manieră amplă și doctrinară, impactul inteligenței artificiale asupra principalelor instituții ale dreptului civil în România. Vom începe printr-un capitol general dedicat relației dintre IA și drept, definind conceptele esențiale și trasând cadrul normativ european emergent. Apoi, în continuare, vom examina pe rând implicațiile IA în materia contractelor civile, a bunurilor (în special în ceea ce proprietatea și alte drepturi reale), a răspunderii civile delictuale (și contractuale, acolo unde este relevant), precum și asupra conceptului de persoană – subiect de drept civil (inclusiv chestiunea controversată a posibilei personalități juridice a sistemelor de IA). Demersul va îmbina analiza normativă (Codul civil român, legislația UE și comparații cu soluții propuse în alte state) cu perspectiva doctrinară a ultimilor cinci ani și elemente de jurisprudență (în situațiile în care instanțele interne sau internaționale au pronunțat hotărâri relevante). În final, vom sintetiza concluziile și vom formula observații privind direcțiile de dezvoltare viitoare a reglementărilor, având în vedere armonizarea dreptului românesc cu cel european și asigurarea echilibrului între inovare tehnologică și protecția drepturilor individuale.

1. IA și dreptul – aspecte generale

Pentru a înțelege impactul asupra instituțiilor juridice, este necesar să definim sintetic conceptul de inteligență artificială din perspectivă legală. Legiuitorul european, prin recentul Regulament (UE) 2024/1689 privind IA (așa-numitul AI Act), definește „sistemul de inteligență artificială” drept un software dezvoltat prin tehnici de IA (enumerate în anexe) care, pentru un set de obiective definite de om, poate genera rezultate (de exemplu conținut, predicții, recomandări sau decizii) ce influențează mediul cu care interacționează[5]. Altfel spus, este vorba de sisteme informatice capabile să simuleze funcții cognitive umane – precum raționamentul, învățarea, planificarea sau creativitatea – și să acționeze cu un anumit grad de autonomie (fără intervenție umană constantă) în executarea sarcinilor trasate. Această definiție legală corespunde unei viziuni largi asupra IA, incluzând atât sistemele bazate pe învățare automată (machine learning), cât și pe logică simbolică, sisteme expert, robotică autonomă etc.

Esențial de reținut este caracterul dual al IA în raport cu dreptul: pe de o parte, IA reprezintă un obiect al reglementării (tehnologia în sine impunând crearea unor norme speciale), iar pe de altă parte, IA devine un instrument folosit în aplicarea sau chiar elaborarea dreptului (de exemplu, algoritmi utilizați în administrație, justiție sau consultanță juridică). Uniunea Europeană a reacționat rapid la aceste evoluții tehnologice pentru a contura un cadru legal uniform în domeniu, dorind să își asume o ipostază de pionierat prin ceea ce a fost denumită „prima legislație occidentală privind inteligența artificială”[3]. Astfel, AI Act – intrat în vigoare la 1 august 2024 – instituie un set de norme aplicabile direct în toate statele membre (inclusiv România), bazate pe o abordare ierarhizată în funcție de risc. Astfel, sistemele de IA sunt clasificate pe niveluri de risc (inacceptabil, ridicat, limitat, minim), cărora le corespund obligații graduale pentru producători și utilizatori lor, menite să asigure respectarea drepturilor fundamentale și siguranța utilizatorilor[5]. De exemplu, IA cu risc ridicat (precum algoritmi folosiți în recrutarea forței de muncă, creditare, sisteme de siguranță auto etc.) vor fi supuși cerințelor stricte de transparență, evaluare a conformității, management al datelor și monitorizare post-piață. În schimb, pentru IA cu risc limitat, regulamentul prevede doar obligații de transparență – de pildă, utilizatorii trebuie informați când interacționează cu un chatbot sau când sunt expuși la conținut generat de IA (pentru a ști că nu este vorba de o comunicare umană reală)[6]. Aceste dispoziții urmăresc prevenirea dezinformării și asigurarea consimțământului informat al persoanelor care intră în contact cu sisteme autonome.

Pe lângă AI Act, la nivel european au fost propuse acte normative complementare, printre care un rol important l-ar fi jucat Propunerea de Directivă privind răspunderea pentru IA (adaptarea normelor de răspundere civilă extracontractuală la inteligența artificială), prezentată de Comisia Europeană în septembrie 2022[4] și retrasă din procedură în luna februarie 2025. Scopul său declarat era să asigure victimelor prejudiciilor cauzate cu implicarea unor sisteme de IA același nivel de protecție ca în cazurile obișnuite (comune), înlăturând obstacolele probatorii specifice tehnologiei (cum ar fi opacitatea algoritmilor, expertiza de specialitate etc.). Directiva propunea mecanisme precum o prezumție de legătură de cauzalitate între încălcarea unei obligații legale de către operatorul unui sistem de IA și prejudiciul cauzat, în situația în care este dovedit caracterul defectuos sau neconform al funcționării sistemului[7]. De asemenea, aceasta facilita accesul la probe prin obligarea furnizorilor de IA să dezvăluie elemente tehnice relevante în procesele civile. Această inițiativă a generat însă dezbateri intense la nivelul UE, unele state și actori economici exprimând îngrijorări că s-ar supra-reglementa domeniul emergent. În consecință, Comisia Europeană a retras propunerea în februarie 2025, indicând lipsa unui consens politic suficient pentru adoptarea sa[8]. Rămâne de văzut dacă se va veni cu o abordare alternativă (de ex. integrarea unor dispoziții despre răspunderea pentru software și IA în legislația existentă privind produsele defectuoase). Retragerea acestei propuneri subliniază dilema actuală la nivel european, în sensul necesității de a împărți răspunderea între diferiții actori (producător, dezvoltator, utilizator) pentru comportamentul imprevizibil al unui sistem autonom, fără a frâna inovarea prin poveri și sarcini excesive.

Nu în ultimul rând, Consiliul Europei a adoptat o Convenție-cadru privind inteligența artificială, axată în special pe aspecte de drepturile omului, democrație și stat de drept în contextul IA. Acest instrument (adoptat 17 mai 2024) urmărește stabilirea unor principii comune la nivel paneuropean (inclusiv state non-UE) pentru dezvoltarea și utilizarea IA într-un mod compatibil cu valorile fundamentale ale societății și completează peisajul reglementar prin abordarea unor chestiuni precum supravegherea utilizării IA, remedii pentru persoanele afectate de decizii automate, cooperarea internațională etc.

În România, deși nu există încă o legislație specială dedicată IA, efectele acestor reglementări europene se vor resimți direct. Regulamentul UE privind IA este direct aplicabil și impune României obligații imediate (fără necesitatea transpunerii), cu termene etapizate: unele obligații devin aplicabile din februarie 2025, iar altele (marea majoritate) din august 2026 [5]. În plus, noile directive europene (precum cea privind răspunderea pentru produsele cu defect) vor trebui transpuse în legislația națională în anii următori, implicând modificări ale Codului civil și ale legilor speciale. Până în prezent, eforturile interne s-au concentrat mai mult pe strategii de încurajare a digitalizării și pe aplicarea legislației existente la noile tehnologii. În lipsa unor norme speciale, instanțele române vor interpreta și aplica dispozițiile Codului civil la situații implicând IA, prin recurs la analogie și la principiile generale ale dreptului civil.

2. Provocări generale aduse de IA pentru dreptul civil

Inteligența artificială, prin caracteristicile sale distinctive, testează limitele conceptelor juridice tradiționale. Autonomia decizională a unor sisteme de IA avansate ridică întrebări despre atribuirea actelor și voinței juridice: dacă un prejudiciu este cauzat de acțiunea independentă a unui algoritm care învață și evoluează fără intervenție umană (human out of the loop), cum putem identifica în mod corect și echitabil persoana responsabilă? Principiile clasice ale răspunderii civile – întemeiate pe liberul arbitru, culpa și previzibilitatea acțiunilor unei persoane – devin dificil de aplicat în absența directă a unei voințe umane la momentul cauzării prejudiciului[9]. Multiplicitatea actorilor implicați în dezvoltarea și utilizarea unui sistem de IA complică suplimentar lucrurile, în condițiile în care în ecuație intervin producătorul hardware, dezvoltatorul de software, furnizorul de date, utilizatorul final etc. Iar dacă un astfel de sistem cauzează un prejudiciu, determinarea verigii slabe – a acelei intervenții sau omisiuni culpabile care a condus la rezultatul prejudiciabil – poate fi un proces extrem de anevoios, mai ales când nici măcar programatorii nu înțeleg pe deplin deciziile emergente ale rețelelor neurale (problema „cutiei negre” – back box) [9]. Astfel de dificultăți probatorii și conceptuale riscă să lase victimele fără un remediu adecvat sau, invers, să atribuie responsabilități în mod nejustificat unor entități care nu au avut de fapt control asupra evenimentelor.

În același timp, IA introduce prejudicii potențiale noi sau amplifică riscuri existente, obligând dreptul civil să le cuprindă în sfera sa de protecție. Spre exemplu, folosirea algoritmilor în procesul decizional poate conduce la forme subtile de discriminare sau încălcare a dreptului la viață privată pentru utilizatori (prin profilare sau utilizare abuzivă a datelor personale, de exemplu), ceea ce pune problema încadrării acestor fapte în sfera prejudiciului reparabil și a articulării cu legislația specială (precum GDPR). Un alt exemplu în acest sens îl poate constitui generarea de conținut de către IA (texte, imagini, muzică), procedeu prin care se pot încălca numeroase drepturi de autor sau care, dimpotrivă, ridică întrebarea dacă produsul original al IA este susceptibil de protecție juridică, în condițiile în care nu există un autor uman (discuție ce ține deopotrivă de dreptul civil și de proprietatea intelectuală, după cum vom vedea în cele ce urmează).

Literatura de specialitate subliniază că adaptarea dreptului la era IA nu presupune neapărat o rupere totală de principiile tradiționale, ci mai curând o interpretare creativă și, acolo unde e necesar, necesitând completări legislative punctuale. S-a argumentat, de exemplu, că multe situații aparent inedite pot fi rezolvate cu instrumentarul existent al dreptului privat, acesta fiind în esența sa neutru din punct de vedere tehnologic. În materie de obligații și contracte, regulile formării acordului de voință sau regimul viciilor de consimțământ pot acoperi și contractele încheiate cu mijloace electronice automate, cu condiția ca părțile să fi intenționat să se oblige juridic[10]. De asemenea, în materie delictuală, concepte precum culpa, paza juridică a bunului sau răspunderea pentru fapta altuia pot fi extinse prin analogie la scenariile ce implică IA. Totuși, există un consens în această privință, în sensul că unele lacune necesită intervenție normativă imediată, și anume acolo unde prejudiciile nu pot fi atribuite niciunei persoane în mod tradițional (așa-numitele cazuri de „risc [de] dezvoltare” sau de autonomie completă a mașinii). Astfel, pentru aceste situații, dreptul trebuie fie să creeze mecanisme de răspundere obiectivă, fie să conceapă noi forme de personalitate juridică ori fonduri colective de compensare[9]. Aceste opțiuni sunt încă dezbătute, făcând obiectul unor viziuni atât convergente cât și divergente ale doctrinarilor europeni.

În continuare, vom trece la analiza specifică, pe domenii consacrate ale dreptului civil, a modului în care IA își pune amprenta și ce soluții se profilează. Vom trata pentru început problematica contractelor, terenul unde IA acționează atât ca unealtă (automatizarea negocierii și executării contractuale), cât și ca potențial „partener” de interacțiune în relațiile juridice.

3. Impactul IA asupra contractelor civile

Contractul – „legea părților” – se întemeiază pe manifestarea valabilă a consimțământului a cel puțin două părți cu capacitate juridică civilă de exercițiu și pe asumarea conștientă a unor obligații juridice. Apariția agenților artificiali, capabili să participe la procesul de formare sau executare a contractelor, ridică întrebări privind validitatea consimțământului, capacitatea de a contracta și, în special, respectarea principiilor clasice precum autonomia de voință și buna-credință. Vom examina, în cele ce urmează, folosirea IA în negocierea și încheierea contractelor (inclusiv problematica consimțământului exprimat prin intermediul sau de către un sistem automat), respectiv în executarea contractelor, inclusiv a celor inteligente (smart contracts) și, în fine, vom trata implicațiile asupra protecției consumatorilor și datelor personale în contextul contractării automate.

3.1. Negocierea și încheierea contractelor cu ajutorul IA

În practică, se întâlnesc deja numeroase situații în care contractele sunt inițiate sau perfectate prin interacțiunea directă a unor sisteme software: de exemplu, tranzacții bursiere efectuate prin algoritmi de trading, comenzi plasate automat între platforme digitale comerciale, asistenți virtuali care contractează servicii anume la cererea utilizatorului etc. Într-un atare context, o problemă fundamentală este dacă, în asemenea cazuri, există un consimțământ valabil al părților, având în vedere că decizia de a contracta sau termenele contractuale pot fi stabilite de o inteligență artificială, și nu de o ființă umană dotată cu capacitate juridică civilă contractuală. Din perspectiva dreptului românesc (și a celui continental, în general), numai persoanele – fizice sau juridice – pot avea capacitatea de a contracta și, în consecință, de a emite o manifestare de voință susceptibilă să producă efecte juridice. Așadar, chiar dacă putem spune că, într-o anumită măsură, un algoritm a „negociat” anumite clauze, contractul va fi considerat încheiat, în ultimă instanță, între persoanele (fizice sau entități juridice) care au utilizat acel algoritm ca instrument în vederea încheierii contractului.

În acest sens, amintim că legea comerțului electronic din România (Legea nr. 365/2002, republicată) recunoaște valabilitatea contractelor încheiate prin mijloace electronice și prevede că oferta și acceptarea pot fi exprimate prin „mesaje electronice fără intervenție umană directă”, consimțământul nefiind refuzat doar pentru că a fost exteriorizat automat[11]. Această abordare corespunde principiilor internaționale în domeniu (de exemplu, Convenția UNCITRAL 2005 privind utilizarea comunicațiilor electronice în contracte, la art. 12, stipulează că un contract poate fi valabil încheiat prin interacțiunea unui sistem automatizat de mesaje cu o persoană sau cu un alt sistem automat, fără a fi necesară revizuirea umană a fiecărui act). Cu alte cuvinte, legea consideră că voința părții care a pus în funcțiune sistemul automat este extinsă asupra actelor generate de acel sistem, în limita în care acestea acționează conform parametrilor stabiliți de părți.

În contextul actual, dacă un agent IA plasează o comandă ce îndeplinește condițiile unei oferte, iar cealaltă parte (om sau alt agent) o acceptă, se va considera că există un acord de voință între părțile umane (individuale sau colective) din spatele acestor agenți, chiar dacă nicio persoană nu a tastat sau atins efectiv „accept” în acel moment[10]. Totuși, această extindere a voinței nu este nelimitată, iar riscurile specifice apar atunci când sistemul IA se abate de la intențiile programate ale celui care îl controlează – de exemplu, oferă un preț eronat (mult prea mic sau prea mare) sau acceptă termeni nefavorabili pe care proprietarul nu i-ar fi acceptat dacă negocia personal. În dreptul contractelor, o asemenea discrepanță poate fi analizată și explicată prin prisma viciilor de consimțământ (eroare, dol) sau a lipsei intenționalității. De pildă, dacă un algoritm de dynamic pricing afișează dintr-o eroare de calcul un preț derizoriu la un produs scump și un cumpărător comandă imediat, vânzătorul (utilizatorul algoritmului) ar putea invoca faptul că prețul afișat a fost o eroare (inclusiv în sens juridic, de reprezentare greșită a realității la momentul ofertei) și că nu a avut intenția de a vinde la acel preț, iar eroarea-viciu de consimțământ poate conduce la anularea contractului dacă este esențială și recognoscibilă (art. 1207 C. civ.). Situația unui preț vădit disproporționat afișat de un software ar putea îndeplini aceste condiții, fiind în primul rând o eroare de ordin tehnic, generată de program. Practic, partea care folosește IA își asumă riscul obișnuit al erorilor de această natură, însă nu și riscul de a fi ținut de contracte cu conținut fictiv sau aberant, pe care niciun om rezonabil nu le-ar fi dorit.

Jurisprudența internațională recentă confirmă că manifestările automate de voință pot fi atacate în situații extreme. De exemplu, instanțe din SUA au permis comercianților online să anuleze tranzacții la prețuri „ridicol de mici” rezultate dintr-o eroare de software, considerând că nu a existat o veritabilă ofertă intenționată. În România, nu există încă soluții judecătorești pe asemenea spețe, dar principiile Codului civil ar conduce probabil la aceeași concluzie: consimțământul presupune voință juridică manifestată, iar acolo unde sistemul IA a acționat în afara voinței programate (putând fi afectat, de pildă, de un bug de programare), se poate susține că lipsit consimțământul real al părții.

Un alt subiect delicat este respectarea condițiilor de validitate ale consimțământului: să fie serios (nu jocandi causa), liber (nesupus niciunei constrângeri) și exprimat în cunoștință de cauză. Utilizarea IA poate afecta mai ales ultima condiție – în cunoștință de cauză –, atât pentru partea care utilizează IA cât și pentru cocontractant. De exemplu, dacă o parte folosește un algoritm de negociere bazat pe tehnici complexe de machine learning, există riscul ca nici măcar acea parte să nu înțeleagă pe deplin strategia de negociere și eventualele concesii făcute de algoritm, putând ulterior susține că nu a fost pe deplin conștientă de clauzele agreate. Similar, cealaltă parte (umană) s-ar putea întreba dacă a negociat de fapt în mod liber, sau a fost influențată de un agent artificial care îi cunoaște preferințele (rezultate din analiza datelor) și a modelat discuțiile într-un mod pe care un om nu l-ar fi putut face. Doctrina recentă din România a început să examineze cu precădere aceste aspecte; astfel, într-un studiu din 2024, se analizează utilizarea inteligenței artificiale în etapa negocierii și încheierii contractului, subliniind „riscurile asociate consimțământului”: poate fi afectată seriozitatea și caracterul liber al consimțământului dacă IA determină rezultatul fără ca părțile să înțeleagă implicațiile[12]. De exemplu, se pune problema dacă un contract încheiat exclusiv pe baza deciziilor unui sistem IA „poate echivala cu un contract încheiat pe baza gândirii umane” și în ce măsură părțile au conștientizat și acceptat cu adevărat termenii stabiliți de mașini[12]. Această întrebare rămâne deschisă; în principiu, cât timp o parte mandatează un agent electronic să acționeze pentru și în numele său (fie și implicit, prin folosirea serviciului), ar trebui să suporte consecințele juridice ale actelor generate de agent. Totuși, dacă rezultatul contravine flagrant intereselor sale din cauza „autonomiei” agentului, se poate recurge la instituția reprezentării fără împuternicire sau depășirea împuternicirii (negotiorum gestio sau gestiune de afaceri în context internațional): agentul electronic nu are personalitate, dar singura analogie posibilă ar fi cu un intermediar care a acționat fără autoritatea necesară, situație în care contractul nu produce efecte decât dacă este confirmat ulterior de parte. Desigur, această analogie este forțată de lipsa reglementării specifice – nu există deocamdată un statut al „agentului electronic” în dreptul românesc.

În dreptul comparat, unele jurisdicții au recunoscut expres conceptul de „electronic agent”. De pildă, în Statele Unite, Uniform Electronic Transactions Act (UETA, 1999) și Uniform Computer Information Transactions Act conțin prevederi conform cărora un contract poate fi încheiat prin interacțiunea acțiunilor unor agenți electronici ai părților, chiar dacă nicio persoană fizică nu a revizuit sau acționat personal[10]. Uniunea Europeană, prin directivele privind comerțul electronic, impune comerciantului obligația de a oferi mecanisme prin care destinatarul unei oferte făcute prin mijloace electronice să poată corecta eventualele erori de introducere a datelor înainte de trimiterea acceptării (Directiva 2000/31/CE, art. 11, transpusă în România prin Legea nr. 365/2002). Această cerință, coroborată cu obligația de informare a părților în situația în care contractul este încheiat prin mijloace automate, oferă o garanție în plus că părțile sunt conștiente și pot rectifica eventuale greșeli generate de sistem. Mai nou, AI Act impune și el, pentru sistemele de IA care interacționează cu oameni, o obligație de transparență similară, în sensul că utilizatorii trebuie informați clar că au de-a face cu un sistem automat, nu cu o ființă umană, înainte de a-și da consimțământul (art. 52 AI Act)[6]. Și aceasta tocmai pentru a se asigura că nimeni nu e indus în eroare cu privire la natura interlocutorului și își poate adapta comportamentul – de exemplu, o persoană ar putea solicita intervenția unui operator uman dacă nu dorește să trateze cu un chatbot o chestiune contractuală importantă.

Un alt principiu fundamental în materia contractelor afectat de IA este cel al bunei-credințe în negocierea și executarea contractelor (astfel cum este reglementată și de art. 1170 C. civ. român). În acest context s-ar putea ridica problema dacă folosirea IA ar putea constitui o încălcare a principiului bunei-credințe, de exemplu dacă una dintre părți utilizează un algoritm care profită de asimetriile de informație ori de vulnerabilitățile psihologice ale cocontractantului. Un program de predictive analytics poate permite cunoașterea în detaliu a preferințelor și limitelor celeilalte părți (mai ales în contractele B2C, dar nu numai), astfel încât o parte „înarmată” cu IA ar putea forța mâna celeilalte părți într-un mod care, deși nu poate fi considerat un dol tradițional, ar putea fi considerat contrar echității. Spre exemplu, un algoritm de negociere ar putea detecta, pe baza comportamentului, momentul exact în care cealaltă parte este dispusă să cedeze și să încheie contractul, presând-o maximal până atunci. Aceste tactici algoritmice ridică deci probleme de etică a negocierii: sunt ele doar manifestări ale libertății contractuale (fiecare își maximizează câștigul), sau devin abuzive? De lege lata, nu există interdicții explicite privind utilizarea unor astfel de instrumente, dar buna-credință ar putea fi invocată în situații extreme (de exemplu, dacă un consumator ar putea demonstra că a fost manipulat decizional de o platformă IA pentru a accepta un contract dezavantajos, autoritățile sau instanțele ar putea considera practica ca agresivă sau înșelătoare conform legislației de protecție a consumatorilor).

3.2. Executarea automatizată a contractelor și „contractele inteligente”

Utilizarea inteligenței artificiale nu se limitează la momentul încheierii contractului, ci joacă un rol din ce în ce mai mare și în executarea obligațiilor contractuale. Aici merită menționat fenomenul așa-numitelor „contracte inteligente” (smart contracts), deși terminologia poate fi uneori derutantă – aceste „contracte” sunt de fapt programe informatice (adesea derulate pe tehnologii blockchain) care execută automat clauze predefinite, odată îndeplinite condițiile stipulate. Ele nu implică neapărat „inteligență” în sensul de IA, fiind de obicei scripturi deterministe. Totuși, acestea fac obiectul discuției noastre, întrucât uneori pot integra componente de IA (de exemplu, un „oracol IA” care furnizează date externe blockchain-ului pentru a declanșa executarea contractului). În dreptul civil clasic, problema care se pune este: poate fi considerată validă executarea ex lege a unei obligații de către un program, fără intervenție umană, și ce se întâmplă dacă programul decide greșit? Principiul pacta sunt servanda rămâne, desigur, fundamental – părțile și-au asumat obligații și acestea trebuie executate; dacă au convenit anterior că executarea va fi automată printr-un cod (de exemplu, plata se va elibera automat la data X dacă un senzor IA confirmă livrarea bunului), atunci acel mod de executare face parte din convenția lor și este opozabil. Provocarea apare când există un defect de executare: dacă codul (sau IA care îl alimentează) execută plata în condiții eronate (de exemplu, senzorul a dat citiri false sau a fost atacat informatic), se pune problema cine suportă consecințele. Din nou, răspunsul va depinde de interpretarea contractului și de eventualele clauze privind riscurile tehnologice. În lipsa unor clauze speciale, am putea recurge la regulile generale: dacă neexecutarea (sau executarea necorespunzătoare) se datorează unui defect al mijlocului tehnic ales, partea care a optat pentru acel mijloc poate fi ținută răspunzătoare ca pentru o neexecutare obișnuită, cu exonerare eventual doar în caz de forță majoră (iar defectul de software, de regulă, nu este recunoscut ca forță majoră, decât dacă e un eveniment extern și imprevizibil chiar și cu diligențe maxime). Așadar, și la faza executării, IA este privită tot ca un instrument în mâna debitorului obligației, nu ca un executant de sine stătător din punct de vedere juridic.

O situație aparte poate fi întâlnită în contractele de prestări servicii sau de muncă, unde IA preia parțial sarcina de executare a obligațiilor. De exemplu, un dezvoltator software se angajează contractual să producă un anumit cod, dar folosește un sistem de generare automată (o IA de tip codex). Dacă rezultatul nu este conform cerințelor, clientul va reclama o neexecutare sau executare necorespunzătoare a contractului. Prestatorul nu se poate exonera invocând că „IA-ul a greșit”, deoarece față de beneficiar el și-a asumat rezultatul. În relația internă a prestatorului cu furnizorul de IA ar putea exista alte remedii (un drept regres), dar contractul principal se apreciază după regulile normale. Acest exemplu ilustrează principiul general ce transpare în toate aceste situații conform căruia IA nu rupe lanțul obligațional, ci este subsumată acestuia. Astfel, debitorul răspunde pentru modul cum alege să își execute obligațiile, inclusiv dacă alege să se bazeze pe o mașină.

3.3. Protecția consumatorilor și a datelor personale în contractele automate

O discuție importantă este cea a protecției consumatorilor în contextul contractelor formate sau executate cu ajutorul IA; consumatorii se află de regulă într-o poziție de inferioritate față de profesioniști, iar utilizarea IA de către companii poate accentua această asimetrie. Deja legislația UE a recunoscut unele riscuri: Directiva (UE) 2019/2161 impune comercianților online obligația de a informa consumatorii dacă prețul afișat este personalizat prin algoritmi pe baza comportamentului anterior al consumatorului (art. 6a din Directiva privind drepturile consumatorilor, modificată). Aceasta pentru ca orice consumator, mai mult sau mai puțin avizat, să fie conștient că prețul nu este unul general, ci rezultatul unui profiling – eventual putându-l determina să caute oferte alternative. Totodată, legislația UE interzice practicile comerciale înșelătoare sau agresive, ceea ce ar include și tehnici algoritmice manipulative (cum ar fi dark patterns generate de IA). De pildă, dacă un asistent virtual de vânzări, condus de IA, ascunde informații esențiale sau presează nejustificat consumatorul să cumpere, autoritățile de protecție a consumatorilor pot sancționa comerciantul ca pentru orice alt agent al său. Un alt aspect este dreptul consumatorului de a obține remedii eficiente. În contractele de furnizare de conținut digital sau servicii digitale (unde intră și serviciile bazate pe IA), Directiva (UE) 2019/770 impune comercianților o garanție a conformității serviciului pe durata contractului. Dacă, de exemplu, un serviciu de streaming cu recomandări personalizate IA nu mai funcționează conform așteptărilor (algoritmul dă erori majore), consumatorul poate cere remedierea sau rezilierea, similar cum ar face-o pentru un bun material defect. Aceste mecanisme legale se aplică indiferent că problema provine dintr-o componentă de IA sau nu – legea nu face distincție, vorbește în termeni de conformitate a rezultatului promis.

Protecția datelor personale este de asemenea strâns legată de contractele cu IA. În multe situații, pentru a contracta eficient, sistemele IA colectează și prelucrează datele părților (nume, preferințe, istoric tranzacțional etc.), cu aplicarea corespunzătoare a GDPR (Regulamentul general privind protecția datelor). Astfel, dacă un comerciant folosește un algoritm care monitorizează comportamentul utilizatorului pentru a-i propune oferte personalizate, acesta trebuie să aibă temei legal pentru prelucrare (de obicei consimțământul persoanei sau interesul legitim, cu informare adecvată) și să respecte principiile de transparență. Doctrina subliniază în studiul său faptul că utilizarea inteligenței artificiale la încheierea contractelor implică riscuri și avantaje legate de respectarea dreptului la protecția datelor personale, fiind obligatorie conformarea cu GDPR în orice situație[12]. Un exemplu practic: un chatbot care încheie contracte de asigurare ar trebui să informeze clientul despre cum îi folosește datele introduse și eventual să nu le reutilizeze în alt scop fără consimțământ. Nerespectarea regulilor privind datele în context contractual poate duce la sancțiuni civile (nulitate unor clauze, acordarea de daune pentru încălcarea vieții private etc.) și administrativă (amenzi în baza GDPR).

În concluzie la această secțiune, impactul IA asupra contractelor civile poate fi gestionat în bună măsură prin principiile existente ale dreptului contractelor, adaptate contextului digital. Valabilitatea contractelor încheiate de agenți automatizați este recunoscută sub condiția atribuirii actelor către persoanele care au utilizat acei agenți. Provocările legate de consimțământ și vicierea acestuia pot fi soluționate de la caz la caz, prin aplicarea teoriei viciilor de consimțământ sau a altor remedii contractuale (anulare, inopozabilitate) atunci când este evidentă o discrepanță între voința reală a părții și acțiunea IA. Până în prezent, în România nu s-au raportat litigii majore pe această temă, iar doctrina a început să ofere repere utile. Practicienii recomandă părților care utilizează IA în contractare să includă clauze contractuale specifice (de ex. limitarea răspunderii pentru erori ale sistemului, proceduri de confirmare umană pentru decizii critice, audit al algoritmilor folosiți etc.), pentru a reduce incertitudinile. Din perspectivă legislativă, nu este exclus ca pe viitor Codul civil sau legi speciale să prevadă expres aspecte precum recunoașterea manifestărilor de voință electronice autonome și alocarea riscurilor în astfel de situații – de lege ferenda s-a propus deja o astfel de abordare[12]. Până atunci, însă, juriștii rămân cu sarcina de a transpune în limbajul actual al dreptului civil circumstanțele inedite create de IA.

4. Impactul IA asupra bunurilor și dreptului de proprietate

În dreptul civil, bunurile (res) reprezintă obiecte derivate ale raporturilor juridice patrimoniale – lucruri corporale sau incorporale asupra cărora subiectele de drept pot deține drepturi reale (proprietate, uz, uzufruct etc.). Inteligența artificială ridică o serie de întrebări interesante cu privire la calificarea sa ca obiect al dreptului de proprietate și la statutul juridic al creațiilor sau datelor generate de IA. În această privință, vom avea în vedere două direcții principale: (1) IA ca bun incorporal sau ca bun mobil corporal (în cazul roboților fizici) – deci problema proprietății asupra sistemelor de IA, și (2) bunurile produse de IA sau strâns legate de IA (cum ar fi datele, operele generate de algoritmi) – cum se încadrează acestea în categoriile tradiționale de bunuri și ce drepturi subiective civile poartă asupra lor.

4.1. Proprietatea asupra sistemelor de inteligență artificială (bun incorporal vs. bun corporal)

Un sistem de inteligență artificială, privit din perspectivă juridică, are adesea o componentă duală: o parte materială (hardware-ul pe care rulează, cum ar fi un robot, un computer, senzori etc.) și o parte imaterială (software-ul – algoritmii de IA propriu-ziși). Din punctul de vedere al dreptului bunurilor, componenta concretă este fără îndoială un bun corporal mobil, susceptibil de proprietate și alte drepturi reale conform regulilor generale ale Codului civil. Astfel, un robot industrial dotat cu IA este un bun mobil supus regulilor de proprietate obișnuite: poate fi vândut, închiriat, gajat etc., iar proprietarul lui exercită paza juridică asupra sa (aspect relevant și în ceea ce privește răspunderea delictuală, după cum vom vedea). Componenta imaterială – programul IA – ridică mai multe nuanțe; astfel, software-ul, în dreptul român, este calificat ca bun incorporal care face obiectul drepturilor de autor (Legea nr. 8/1996 privind drepturile de autor recunoaște expres programele pentru calculator ca opere protejate)[13]. Așadar, asupra unui software de IA există drepturi de proprietate intelectuală aparținând autorului (de regulă persoana fizică care l-a creat) sau cesionarului acestuia (o companie, prin contract). Pe lângă dreptul de autor, programul poate fi obiectul unor drepturi de proprietate obișnuite, în condițiile în care licența de utilizare a unui software este un drept patrimonial ce permite posesorului să folosească programul, iar în anumite condiții, software-ul cumpărat integral (codul sursă) devine proprietatea cumpărătorului. Însă, în mod caracteristic bunurilor incorporale, proprietatea intelectuală asupra IA este distinctă de suportul material; de exemplu, dacă o companie achiziționează un robot IA, ea devine proprietara hardware-ului (bun corporal) și deținătoarea unei licențe de software (drept de utilizare a IA, conform licenței acordate de dezvoltator). Dar aceasta nu devine neapărat și titulara codului sursă, decât dacă s-a stipulat expres transferul drepturilor de autor sau al know-how-ului.

O întrebare teoretică interesantă este: poate fi IA însăși considerată un „bun” din perspectiva dreptului civil, sau doar suportul ei material și codul-sursă (ca operă intelectuală) sunt bunuri? Unii autori au argumentat că ar trebui să recunoaștem existența unei categorii noi de bunuri incorporale – „bunuri digitale autonome” – care să includă sistemele de IA în ansamblul lor, nu doar ca program de calculator clasic[14]. Practic, inteligența artificială, mai ales cea bazată pe învățare automatizată, poate evolua și genera cunoștințe noi, având un grad de independență față de codul său inițial. Cu toate acestea, dintr-o perspectivă juridică pozitivistă, majoritatea doctrinarilor consideră că IA se subsumă noțiunii de software (deci bun incorporal) și/sau echipament (bun corporal), nefiind necesară recunoașterea unei categorii de sine stătătoare. De altfel, s-a afirmat deja în literatura de specialitate că „întrucât inteligența artificială reprezintă la bază un program software, aceasta poate fi catalogată drept bun incorporal asupra căruia se poate exercita un drept de proprietate”[14]. Prin urmare, proprietatea asupra unui sistem de IA va fi dedusă după regulile generale: cine a creat sau a cumpărat software-ul are drepturile patrimoniale asupra lui (sub rezerva drepturilor morale ale autorului în cazul programelor protejate) și cine deține dispozitivul fizic îl are ca bun propriu.

Un aspect practic semnificativ îl constituie și circulația juridică a soluțiilor de IA. Fiind bunuri incorporale, ele circulă adesea prin licențe, cesiuni de drepturi de autor sau contracte de know-how, și nu neapărat prin vânzare-cumpărare obișnuită. Pentru utilizatorul final, însă, dincolo de subtilitățile ce țin de proprietatea intelectuală, ceea ce contează este că are un drept de folosință exclusivă asupra aplicației IA conform contractului. Dacă ne gândim la valoarea economică a IA, devine clar că datele și algoritmii pot fi printre cele mai valoroase active intangibile ale unei companii, ridicând problema includerii lor în patrimoniul său, evaluării și garantării. În dreptul societăților, acestea se pot aduce ca aport bunuri incorporale – deci, teoretic, un asociat ar putea aduce ca aport la capital un sistem IA (sau drepturile asupra lui), evaluat în bani, la fel ca un brevet sau un fond de comerț.

O paralelă interesantă este cea cu regimul animalelor în dreptul civil; la un moment dat, în doctrină s-a ridicat problema dacă animalele evoluate ar trebui scoase din categoria de „bunuri” și li s-ar putea recunoaște un statut sui-generis de persoane non-umane (unele coduri civile, precum cel francez, au și introdus o clauză simbolică recunoscând animalele ca ființe simțitoare, deși regimul lor juridic rămâne asimilat bunurilor în mare măsură). În cazul IA, avem entități non-vii, deci categoric obiecte, care sunt totuși capabile de comportament autonom. Un curent de opinie a sugerat că roboții inteligenți ultra-sofisticați nu pot fi tratați nici ca simple obiecte (pentru că acționează autonom), dar nici ca persoane (pentru că nu au conștiință și responsabilitate morală), ci ca o categorie intermediară – s-a folosit termenul de „electronic person” în discursul public european[15]. Deocamdată însă, acest concept nu a fost introdus în nicio reglementare în civilă sau în alt domeniu. Așadar, poziția juridică actuală este că un sistem de IA aparține unei persoane fizice sau juridice care îl controlează și care îl poate înstrăina ca bun, și nu există vreo restricție generală în a deține, vinde sau ipoteca un astfel de bun, în afară de regimul obișnuit al software-urilor (licențele pot interzice titularului sub-licențierea, de exemplu).

5. Creațiile și datele generate de IA – obiecte ale drepturilor patrimoniale?

O temă intens dezbătută în ultimii ani este soarta output-ului (rezultatului) generat de IA: cine deține drepturile asupra invențiilor, creațiilor artistice sau datelor produse de un sistem autonom? Deși intrăm parțial pe tărâmul proprietății intelectuale, întrebarea are și o componentă de drept civil, în sensul că aceste rezultate pot fi considerate, în egală măsură, bunuri, și, la rândul lor, pot fi integrate în circuitul civil.

5.1. Opere și invenții create de IA

Ne putem imagina cu ușurință un tablou „pictat” de un algoritm de deep learning sau un text scris integral de un model lingvistic, fără intervenție umană substanțială. Conform legislației românești a drepturilor de autor (și practic tuturor legislațiilor actuale), calitatea de autor o poate avea doar o persoană fizică[13]. Legea 8/1996 prevede explicit că autorul unei opere este persoana fizică ce a creat-o, iar în cazul programelor de calculator, autorul trebuie să fie tot o persoană fizică, chiar dacă ulterior drepturile pot fi cedate unei persoane juridice. Aceasta înseamnă că, dacă o pictură sau melodie este generată integral de IA fără un aport creativ uman identificabil, atunci acel output nu se bucură de protecție de autor – el cade în domeniul public din momentul creării, iar oricine îl poate folosi. Situația a fost confirmată deja în jurisprudența unor oficii de copyright străine: de pildă, US Copyright Office a refuzat înregistrarea unor imagini create de un AI (fără contribuție umană) pe motivul lipsei de autor uman, iar Oficiul UE pentru Proprietate Intelectuală a exprimat același principiu. Așadar, creațiile IA nu devin „proprietatea” nimănui prin simplul fapt al creației, nefiind opere protejate prin legislațiile în vigoare. Totuși, asta nu înseamnă că ele nu pot fi apropriate în sensul legii civile: de regulă, bunurile care nu au un titular anume pot fi însușite de primul care le preia prin ocupațiune. În practică, entitatea care exploatează IA-ul (de exemplu, compania care a generat acel output) va exercita un control de fapt și de drept asupra rezultatului – de exemplu, îl va fixa pe un suport, îl va vinde ca produs, îl va proteja eventual contractual prin clauze de confidențialitate sau terms of use. Așadar, dreptul civil clasic ar putea vedea aceste rezultate inițial ca pe niște bunuri fără stăpân, care devin proprietatea celui care le ocupă primul (analog ocupării unor lucruri mobile fără proprietar), analogie care încă nu a fost aplicată în practică.

În domeniul invențiilor (și brevetelor de invenție), situația este similară: legislația cere ca inventatorul să fie persoană fizică, ceea ce a condus la cazuri celebre precum refuzul brevetării invențiilor create de sistemul IA „DABUS” pe motiv că nu există inventator uman. Din nou, invenția în sine nu devine proprietatea programului de inteligență artificială (care oricum nu poate fi subiect de drept, titular de drepturi și obligații), dar nici nu se bucură de regimul de protecție clasic, putând fi utilizată liber în limita altor restricții. Cu toate acestea, companiile încearcă să protejeze secretul comercial al acestor inovații algoritmice, menținându-le ca know-how confidențial, decât să le dezvăluie fără protecție.

Regimul actual încurajează așadar implicarea umană cel puțin formal, multe companii preferând să crediteze un programator sau un artist ca autor/inventator (chiar dacă IA a realizat majoritatea operațiunilor) pentru a putea obține protecții legale. Această practică ridică probleme etice și juridice semnificative: pe această cale, se ficționalizează paternitatea operei. O eventuală schimbare legislativă viitoare ar putea recunoaște un fel de drept sui-generis asupra creațiilor generate de IA, atribuit poate operatorului IA sau proprietarului acesteia. Deocamdată, însă, abordarea UE (consemnată inclusiv în documentele Comisiei) este că nu se impune acordarea personalității juridice IA și nici calității de autor/inventator, întrucât s-ar diminua stimulentele pentru creatori umani și ar fi dificil de trasat și determinat răspunderea juridică[16]. Prin urmare, oricât de autonom ar fi un algoritm, în ochii legii, rezultatele activității sale aparțin oamenilor fie prin protecții existente (dacă se încadrează aici, de exemplu, baza de date generată de IA poate fi protejată ca drept sui-generis al producătorului bazei de date), fie rămân în domeniul public, unde pot fi însușite și exploatate de cine le percepe.

5.2. Datele ca obiect al dreptului de proprietate

O resursă crucială în economia digitală este data – informația brute sau procesată pe care IA o folosește sau o generează. Se vorbește despre un drept de proprietate asupra datelor, deși din punct de vedere juridic datele ca atare nu se încadrează ușor în noțiunea tradițională de bun. Datele sunt imateriale, non-concurențiale (utilizarea de către o persoană nu o împiedică pe a altuia) și adesea strâns legate de anumite persoane (dacă sunt date cu caracter personal). Dreptul român și cel european nu recunosc un drept subiectiv de proprietate privată asupra datelor în general; pentru datele cu caracter personal, este clar stabilit prin GDPR că persoana vizată are un pachet de drepturi sui-generis (acces, rectificare, ștergere, portabilitate etc.), dar nu „proprietatea” în sens patrimonial – de altfel, comerțul cu date personale este strict reglementat. Pentru datele nepersonale (cum ar fi, de pildă, date industriale, percepute de senzori, date agregate etc.), nu există un regim juridic unitar. În mod tradițional, în absența protecției IP sau a secretului profesional, datele brute erau considerate res nullius – oricine le putea copia și folosi. Totuși, recenta reglementare adoptată la nivelul UE (Regulament (UE) 2023/2854 privind norme armonizate pentru un acces echitabil la date și o utilizare corectă a acestora) creează un cadru de acces la date, care recunoaște în esență dreptul utilizatorilor unui produs sau serviciu inteligent de a accesa datele generate de acesta și de a le partaja cu terți. Acest regulament, deși nu proclamă un drept de proprietate asupra datelor, se apropie de ideea că datele sunt un bun economic ce trebuie pe baza anumitor drepturi atribuite părților interesate (utilizatorilor, producătorilor). În România, implementarea acestor reguli va asigura, de pildă, că proprietarul unei mașini inteligente are dreptul să obțină toate datele telemetrice generate de mașina sa și să le poată transmite unui service terț, chiar dacă producătorul auto altfel le-ar păstra exclusiv.

Revenind la IA, datele de antrenare și datele generate de IA (cum sunt colecțiile imense de imagini sau texte folosite pentru a antrena un model) devin foarte valoroase sub aspect economic. Ele sunt protejate indirect prin confidențialitate sporită sau prin investițiile în comasarea lor (bazele de date pot fi protejate de dreptul sui-generis al producătorului dacă implică o investiție substanțială, conform Directivei 96/9/CE). Astfel, o companie ce a adunat o bază de date pentru IA are un drept de a interzice extragerea și reutilizarea substanțială a datelor de către terți. Vedem deci cum reglementările existente trebuie să comporte în mod obligatoriu un caracter mixt pentru a putea acoperi valențele complexe ale acestor bunuri digitale; practic, este vorba despre un amestec de drepturi de autor, drepturi reale (de proprietate), clauze contractuale de confidențialitate și măsuri tehnologice de protecție.

În contextul dreptului civil român, la întrebarea dacă datele pot fi considerate bunuri, putem încerca următorul răspuns: datele, ca entități necorporale, pot face parte din patrimoniul unui subiect de drept în măsura în care asupra lor se pot exercita drepturi patrimoniale (ceea ce se întâmplă în cazul drepturilor de proprietate intelectuală). Codul civil nu enumeră datele în categoria bunurilor, dar nici nu le exclude expres, enumerarea din art. 535 referitor la bunurile mobile incorporale nefiind limitativă. În acel context sunt menționate, de exemplu, creanțele, drepturile de autor, drepturile de proprietate industrială și „alte drepturi patrimoniale”; datele, nefiind un drept subiectiv patrimonial, ar putea fi totuși asimilate unei prestări sau unui serviciu, dacă sunt furnizate contra cost. Și aceasta pentru că, în practică, licențele de date sunt tratate ca servicii sau ca vânzări de bunuri incorporale.

În fine, merită amintită și discuția despre posibilitatea ca IA, ajunsă la un nivel ridicat de evoluție, să fie considerată nu un bun, ci un subiect de drept (aspecte pe care le vom dezvolta în capitolul următor). Dacă s-ar ajunge la acel punct, ar însemna că IA nu mai poate fi deținută ca proprietate – în măsură în care o persoană nu poate fac obiectul acestui drept. Dar la momentul actual, conceptul de „personalitate electronică” este respins și chiar criticat la nivel european[16], iar regula actuală rămâne că IA este un bun (sau ansamblu de bunuri corporale/incorporale) aparținând unui subiect de drept.

Pe plan comparat, țări precum Germania, Franța sau Italia nu au adoptat reglementări speciale privind statutul bunurilor digitale autonome, dar doctrina are în vedere aceste aspecte. Franța, de exemplu, într-un raport al Consiliului de Stat din 2022, a concluzionat că nu este oportună recunoașterea personalității juridice a IA și că regimul de proprietate intelectuală existent (cu eventuale ajustări punctuale) poate gestiona aspectele patrimoniale legate de IA. Germania a introdus în 2021 în Codul civil federal conceptul de „date ca obiect al prestației” (în contextul implementării directivelor aplicabile domeniului digital), clarificând faptul că obligațiile privind furnizarea de date sunt posibile și tratate similar cu obligațiile privind bunurile.

Așadar, în dreptul civil român, IA și manifestările sale se subsumează în prezent categoriilor tradiționale: obiect tangibil (dacă e incarnată într-un robot/dispozitiv) și creație intangibilă (software, set de date), ambele fiind bunuri în sens larg. Proprietatea și celelalte drepturi reale se pot exercita asupra acestor bunuri potrivit dreptului comun, iar transferul lor urmează regulile obișnuite (cu particularități de proprietate intelectuală în cazul software-ului). Ceea ce nu se recunoaște (încă) este o existență juridică proprie a IA care să o scoată din sfera bunurilor – spre exemplu, un robot nu are drepturi proprii asupra sinelui, toate aceste drepturi aparținând proprietarilor și creatorilor umani. O atare viziune conservă ordinea juridică tradițională a subiectelor de drept (persoanele fizice juridice) și a bunurilor (inclusiv IA). Vom vedea în capitolul următor că există totuși discuții dacă nu cumva ar fi utilă o reevaluare a acestei dihotomii stricte, cel puțin pentru a acomoda și a facilita răspunderea civilă.

6. Impactul IA asupra răspunderii civile

Domeniul răspunderii civile (delictuale și, în parte, contractuale) este, poate, segmentul dreptului civil asupra căruia inteligența artificială exercită cea mai puternică presiune de reformare. Regimul clasic al răspunderii civile se întemeiază pe ideea fundamentală conform căreia fapta ilicită imputabilă este unei persoane care a cauzat altuia un prejudiciu, dând naștere obligației de reparare integrală. IA complică această ecuație prin faptul că poate acționa ca un intermediar autonom al faptei: prejudiciul este cauzat cu implicarea IA, dar nu neapărat de o acțiune direct umană conștientă. Se pune deci problema identificării persoanei responsabile: este producătorul sistemului? Programatorul? Utilizatorul/operatorul care l-a pus în funcțiune? Sau este chiar sistemul în sine, dacă s-ar bucura de personalitate juridică?

Prin urmare, în această secțiune vom aborda: (1) aplicarea regulilor existente de răspundere civilă delictuală la cazurile care implică IA (inclusiv analogii cu răspunderea pentru fapta lucrului și pentru fapta altei persoane), (2) inițiativele de adaptare legislativă a răspunderii civile la implicațiile IA – la nivelul UE și eventual în alte state, și (3) chestiunea răspunderii contractuale atunci când neexecutarea are cauze legate de, sau se datorează, unor sisteme de IA.

6.1. Răspunderea delictuală pentru prejudiciile cauzate de sisteme de IA

Regula generală în dreptul român (art. 1357 C. civ.) este că „cel care cauzează altuia un prejudiciu printr-o faptă ilicită, săvârșită cu intenție sau din culpă, este obligat să îl repare”. Prin „cel care” se înțelege orice persoană (fizică sau juridică) cu discernământ și capacitate delictuală, iar prin „faptă ilicită” se înțelege o acțiune sau inacțiune controlată de voința acelei persoane. Un sistem de IA, nefiind subiect de drept, nu poate avea prin el însuși culpă sau voință în accepțiunea legii; prin urmare, prejudiciul produs prin funcționarea unui sistem de IA trebuie, juridic vorbind, atribuit fie: a) unei persoane care a acționat în legătură cu acel sistem (de exemplu, utilizatorul care l-a operat în mod greșit sau producătorul care l-a conceput defectuos), fie b) unui caz de răspundere obiectivă independentă de culpă (dacă se consideră sistemul ca un lucru periculos aflat sub paza cuiva).

Codul civil român oferă deja câteva instrumente de răspundere fără culpă, utile în contextul IA:

– Răspunderea pentru prejudiciile cauzate de lucruri (art. 1376 C. civ.) prevede că „oricine este obligat să repare, independent de orice culpă, prejudiciul cauzat de lucrul aflat sub paza sa”[17]. Dacă considerăm un sistem de IA (de exemplu un robot autonom sau un vehicul autonom) drept „lucru” aflat sub paza juridică a unei persoane (proprietarul sau cel care îl folosește pe baza unui titlu), atunci orice prejudiciu cauzat de acel sistem antrenează răspunderea obiectivă a deținătorului. Această analogia este esențială în contextul dat: în loc să căutăm culpa robotului (care nu există) sau culpa proprietarului (care poate nici nu a greșit cu nimic, doar a operat echipamentul), putem aplica direct răspunderea pe baza regulilor privind paza lucrului. Condiția este ca prejudiciul să fie efectul unei acțiuni sau reacții a acestuia, și nu al intervenției altei persoane. De exemplu, dacă un robot casnic autonom se defectează și provoacă un incendiu care afectează apartamentul vecin, proprietarul robotului va răspunde automat, ca și cum un obiect al său (lucru) a cauzat prejudiciul, similar cu cazul clasic al spargerii unei țevi de apă în apartament. Desigur, paznicul (proprietarul) se poate întoarce cu acțiune în regres contra producătorului robotului dacă a fost vorba de un defect de fabricație sau de programare.

– Răspunderea pentru fapta altuia: art. 1373 C. civ. consacră răspunderea comitenților pentru prepuși (răspunderea angajatorului pentru fapta angajatului în legătură cu atribuțiile de serviciu). Evident, un sistem de IA nu poate fi considerat angajat sau lucrător, dar unii autori au propus o analogie în acest sens, anume tratarea sistemelor de IA foarte avansate ca un fel de „prepus virtual” al utilizatorului[9]. Într-o asemenea analogie, dacă un agent IA folosit de o firmă provoacă un prejudiciu unui terț, firma ar răspunde ca și cum un angajat al său ar fi comis fapta. Totuși, această analogie are limitele sale, deoarece art. 1373 cere ca prepusul să fie o persoană, iar un robot, oricât de autonom ar fi, nu intră în această categorie. Totuși, răspunderea pentru fapta prepușilor rămâne totuși în discuție în scenariile în care o persoană fizică interacționează cu IA: de exemplu, dacă un șofer de test operează un vehicul autonom al companiei și acesta accidentează pe cineva, compania oricum răspunde în calitate de comitent pentru șofer (dacă șoferul e considerat prepus). Dar aici prejudiciul are o cauză mixtă, umană și IA, deci oricum răspunderea revine companiei; problemele reale apar atunci când ființa umană aproape nu există în lanțul cauzal.

  • Răspunderea pentru produse cu defecte: legea română specială (Legea nr. 240/2004, transpunând Directiva 85/374/CEE privind răspunderea pentru produsele cu defecte, între timp abrogată prin Directiva 2024/2853 din 23 octombrie 2024) instituie o răspundere obiectivă a producătorului pentru prejudiciile cauzate de un produs cu defect; astfel, un sistem de IA integrat într-un produs (de exemplu, software-ul de pilot automat al unei mașini), atunci când funcționează defectuos, poate fi calificat drept defect al produsului, astfel încât victima unui accident poate acționa direct producătorul, fără a trebui să dovedească neglijența acestuia, ci doar faptul că produsul nu a oferit siguranța la care se aștepta în mod rezonabil[18]. De exemplu, în cazul unui autoturism autonom care lovește un pieton, dacă se dovedește că la baza accidentului a stat o decizie eronată a sistemului de conducere autonomă (o deficiență de software sau de senzori), pietonul poate chema în judecată producătorul mașinii invocând defectul respectiv. Acesta din urmă se poate exonera numai dacă dovedește existența unei cauze străine sau că, la momentul punerii în circulație, știința nu putea detecta acel defect („riscul de dezvoltare” – exceptat numai dacă statul a prevăzut această exonerare). În contextul actual, regimul produselor defectuoase este esențial pentru răspunderea IA incorporate în bunuri de consum. De aceea, UE a și actualizat directiva: noua Directivă (UE) 2024/2853 privind răspunderea pentru produse cu defecte (ne-transpusă încă în aprilie 2025) extinde definiția de „produs” pentru a acoperi software-ul, inclusiv IA, indiferent dacă este livrat separat sau integrat într-un sistem distinct[19]. De asemenea, noua directivă clarifică faptul că lipsa actualizărilor de software necesare constituie un defect al produsului și introduce prezumții probatorii în favoarea reclamantului în cazurile complexe (dificultăți de probă tip „cutie neagră” – black box, sisteme „ermetic închise”). Aceste modificări legislative se vor regăsi și în România în viitorul apropiat, consolidând pe această cale poziția victimei: practic, pentru majoritatea accidentelor generate de sisteme autonome puse pe piață, producătorii și furnizorii vor suporta o răspundere strictă.

Prin combinarea acestor regimuri, există posibilitatea de a oferi posibilitatea despăgubirii integrale a victimei, chiar dacă niciunul dintre actorii implicați nu a fost „neglijent” sau „în culpă” în sens clasic. Această situație poate fi ilustrată printr-un exemplu concret: un vehicul autonom (de nivel 5) circulă legal pe drumurile publice; conform dispozițiilor aplicabile, chiar dacă tehnologia este autonomă, va exista un „deținător” sau proprietar responsabil, obligat să aibă asigurare de răspundere civilă auto (legislația rutieră impune în continuare existența un asigurător pentru vehicul). Dacă vehiculul cauzează un accident, asigurătorul va plăti despăgubirile cuvenite victimei, acesta fiind mecanismul principal de protecție. În continuare, asigurătorul va proceda la o analiză aprofundată a situației: poate recupera suma achitată de la producător, în situația în care a fost vorba de un defect care a cauzat accidentul (conform reglementărilor privind produsele defectuoase), sau de la deținător, dacă acesta a folosit impropriu vehiculul (care deținătorul este oricum asigurat). În țări precum Germania, care au autorizat deja utilizarea autovehiculelor autonome, legea menține conceptul de „șofer responsabil”, chiar dacă șoferul nici nu atinge volanul – acesta fiind, de fapt, persoana care trebuie să preia controlul în caz de urgență și care răspunde dacă nu o face. Într-un asemenea sistem, culpa șoferului constituie încă un criteriu (de pildă, dacă nu a intervenit la timp). Însă, pe măsură ce se va trece la vehicule fără șofer uman, accentul cade pe răspunderea de pază a proprietarului și, respectiv, răspunderea de produs a fabricantului. La rândul său, România va trebui să își ajusteze legislația rutieră și de asigurări în acest sens odată cu pătrunderea vehiculelor autonome. Cert este că, prin aceste reglementări, se urmărește ca prejudiciul suferit de victimă să fie reparat în orice situație, fie de proprietarul vehiculului (printr-o schemă de asigurare obligatorie), fie producătorul (dacă se dovedește existența unui defect).

Aceste soluții conturează o așa-numită colectivizare sau socializare a riscurilor, pe care doctrina contemporană o pune în evidență; astfel, pe măsură ce tehnologia complică atribuirea culpei individuale, răspunderea civilă s-a orientat către distribuirea pierderilor prin asigurări și fonduri de garantare[9]. În cazul IA, este de așteptat să se pună un accent și mai mare pe asigurare. Unii autori și foruri au propus chiar instituirea unor fonduri obligatorii alimentate de deținătorii sau producătorii de produse autonome pentru a despăgubi daunele atunci când niciun alt debitor solvabil nu este sau nu poate fi identificat. Parlamentul European, în rezoluția sa din 2017, sugera un sistem de asigurare obligatorie combinat cu un fond de compensare pentru roboții autonomi[15]. Deocamdată, nu s-a implementat o atare măsură la nivel general (exceptând domenii specifice, precum vehicule unde există deja sistemul de asigurare RCA).

Se cuvine avută în vedere și jurisprudența în materie – puțină, dar relevantă – legată de accidente implicând vehicule dirijate de IA. În România nu s-au raportat oficial litigii soluționate de instanțe privind prejudicii cauzate de acestea, dar pe plan internațional există un număr de incidente care au stârnit un incident legitim în acest sens:

  • Accidentul mortal cauzat de un vehicul autonom al Uber în Arizona (SUA, 2018) adus la aplicarea de sancțiuni penale (îndreptate contra operatorului uman de siguranță, care nu a fost vigilent) și la înțelegeri civile confidențiale între Uber și familia victimei. Cazul a arătat că sistemul automat nu poate fi pus sub acuzare, așa că responsabilitatea s-a focalizat pe factorul uman. Deși în Europa cazul nu are efect direct, acesta arată totuși tendința de a identifica o persoană responsabilă chiar și în prezența IA.
  • Cazuri de malpraxis medical asistat de IA: de exemplu, dacă un algoritm de diagnosticare face o eroare, medicul care a apelat la acesta poate fi tras la răspundere pentru neglijență. În Franța, deși nu s-a pronunțat încă o hotărâre emblematică, se dezbate în sensul că medicul are obligație de mijloace, deci dacă a folosit un instrument aprobat și totuși a survenit o eroare, nu s-ar face vinovat decât dacă a fost vorba de aplicarea unei recomandări absurde pronunțate de IA, cu toate nuanțele pe care le implică o atare situație
  • „Jurisprudența IA” este un termen care începe să câștige teren, referindu-se atât la hotărâri care implică IA, cât și la folosirea IA în procesul judiciar. Dar strict pe prejudicii, un exemplu notabil este decizia Curții Federale din Germania (BGH) din 2020 privind un sistem autopilot aferent unei mașini Tesla, unde s-a discutat responsabilitatea șoferului pentru monitorizare – confirmând faptul că, din punct de vedere legal, șoferul trebuie să fie pregătit întotdeauna să intervină, deci răspunderea nu este externalizată complet pe mașină și sistemele sale autonome.

Din analiza de mai sus, observăm că dreptul comun al răspunderii oferă unele soluții pertinente, însă rămân zone de incertitudine destul de vaste. Principalele dificultăți – identificate și în doctrină – sunt cele legate de autonomia IA (care face dificilă stabilirea legăturii de cauzalitate cu o acțiune umană specifică), multiplicitatea părților implicate (care diluează răspunderea individuală) și opacitatea algoritmilor (ce îngreunează probarea defectului sau culpei)[ 9]. De lege ferenda, se are în vedere necesitatea unui regim special de răspundere civilă pentru IA care să încorporeze elemente noi: de exemplu, o prezumție de culpă a dezvoltatorului în caz de prejudiciu cauzat de sistemele de IA de risc ridicat, sau chiar recunoașterea IA ca titular al unei rezerve patrimoniale (bazată pe asigurare) din care să răspundă.

Uniunea Europeană, după cum am menționat, a încercat prin Propunerea de directivă privind răspunderea pentru IA (2022) să faciliteze acțiunile victimelor în acest sens. Proiectul introducea două mecanisme-cheie: accesul la probe – instanța poate obliga furnizorul sau utilizatorul unui sistem de IA de mare risc să divulge informații relevante despre sistem (logări, date, algoritmi) când se solicită o despăgubire, și prezumția de cauzalitate – dacă victima dovedește că cineva a încălcat o obligație legală (cum ar fi cele cele prevăzute de AI Act) menită să preîntâmpine exact prejudiciul produs (când există o probabilitate rezonabilă ca prejudiciul să fi fost cauzat de IA, atunci se prezumă legătura de cauzalitate între încălcare și prejudiciu[8]). Aceasta ar fi scutit victima de imposibilitatea de a explica exact mecanismul defectuos din cadrul sistemului „cutie neagră”. Deși proiectul a fost retras, este posibil ca unele elemente să reapară sub altă formă (de exemplu, ar putea fi integrate în procesul de implementare a noii Directive privind produsele defectuoase în legislațiile naționale, extinzând la modul general regimul probatoriu).

Pentru România, în perspectiva punerii în aplicare a Regulamentului IA și a noii Directive privind produsele cu defect, ar putea fi necesară modificarea unor dispoziții din Codul civil privind răspunderea obiectivă. De pildă, s-ar putea clarifica prin lege (eventual într-un articol 1376 indice 1 nou introdus) că noțiunea de „lucru” include, alături de software, și sistemele autonome de inteligență artificială care nu sunt incorporate fizic într-un obiect determinat, astfel încât răspunderea pentru fapta lucrurilor să se aplice și, să zicem, unui sistem complet online care provoacă un prejudiciu prin luarea unei decizii eronate. De asemenea, legiuitorul ar putea stabili obligații de asigurare pentru anumiți utilizatori de IA de risc (similar cu RCA la mașini) – lucru de altfel recomandat de experții în domeniu.

6.2. Un alt aspect demn de menționat este răspunderea contractuală în contextul IA. Dacă, de exemplu, o companie angajează serviciile unei firme de robotică pentru automatizarea depozitului, iar robotul IA nu funcționează cum trebuie și cauzează pagube sau pierderi de stoc, pe lângă eventualele pretenții delictuale ale terților, beneficiarul are la dispoziție o acțiune în răspundere contractuală împotriva furnizorului mecanismelor robotice având ca obiect neîndeplinirea obligației contractuale, adică furnizarea unui sistem funcțional adecvat. În egală măsură, prin anumite clauze contractuale, părțile pot limita sau agrea răspunderea pentru astfel de eșecuri tehnologice.

Astfel, este de așteptat ca, pe măsură ce IA este din ce în ce mai mult integrată în contracte, clauzele de răspundere și garanție să devină mai elaborate: o garanție de funcționare în parametri normali, clauze de despăgubire în caz de downtime cauzat de AI ș.a.m.d. Principiile generale ale răspunderii contractuale (art. 1530 C. civ. – repararea prejudiciului previzibil decurgând din neexecutare) sunt deplin aplicabile și în aceste situații; în plus, un furnizor de IA ar putea invoca forța majoră sau cazul fortuit dacă prejudiciul a fost cauzat de un comportament imprevizibil al IA (de tipul emergent behavior). Acest lucru fi însă dificil, pentru că, de regulă, o defecțiune internă a produsului nu constituie forță majoră, iar comportamentul imprevizibil al IA reprezintă tocmai riscul specific al contractului asumat de furnizor. Prin urmare, este de așteptat ca răspunderea contractuală să fie angajată destul de frecvent, iar părțile să negocieze distribuirea riscurilor.

6.3. În sinteză, impactul IA asupra răspunderii civile se traduce printr-o tendință de obiectivizare și socializare a răspunderii. În mod tradițional, trebuie identificată persoana vinovată; în era digitalului și a inteligenței artificială, se caută soluția cea mai eficientă și rapidă pentru a despăgubi victima, chiar dacă asta înseamnă tragerea la răspundere a unor persoane care nu au fost neglijente în sens clasic, dar care fie au beneficii de pe urma IA (producătorii), fie o controlează (deținătorii); în acest context, sistemul de asigurări vine apoi să redistribuie povara. România se va alinia acestor tendințe prin transpunerea noilor reglementări europene și, eventual, prin adaptări contextuale ale Codului civil. Pentru moment, mecanismele existente – răspunderea pentru fapta lucrului, pentru produse cu defect, pentru prepuși – oferă un cadru juridic acceptabil, dar nu complet. Lipsa unor situații de speță concrete, soluționate de instanțe, lasă unele întrebări teoretice deschise.

O dezbatere ultimă, care face tranziția către următorul capitol, este dacă IA ar putea dobândi un statut de subiect de drept (fie și unul limitat, de exemplu sub forma unei organizații sau persoane juridice dedicate), iar ar fi posibil ca răspunderea să fie atașată IA însăși, punând-o să plătească din propriul patrimoniu sau fond pe care în deține și/sau administrează. O atare abordare ar reduce eventual răspunderea umană directă, însă, în egală măsură, ridică imense probleme de principiu. Până acum, legiuitorul european a respins ideea personificării IA ca soluție, argumentând că răspunderea este mai bine asumată transparent de oamenii din spatele mașinilor[16].

7. Inteligența artificială ca subiect de drept civil

Noțiunea de persoană (ca subiect de drept) este fundamentală în dreptul civil: persoanele (fizice sau juridice) sunt titulare de drepturi și obligații civile, au capacitate juridică, pot încheia acte juridice civile, răspund juridic, se bucură de protecția personalității lor (drepturi nepatrimoniale precum dreptul la viață, sănătate, demnitate, imagine etc.). Apariția inteligenței artificiale pune sub semnul întrebării dacă dihotomia tradițională persoană vs. bun rămâne integral valabilă. Astfel, în cele ce urmează vom avea în vedere, în primul rând, problema recunoașterii personalității juridice pentru entități de IA, prin argumente pro și contra și analizând stadiul actual al reglementării; în al doilea rând, vom evidenția efectele IA asupra conceptelor de capacitate și voință juridică (delegarea deciziei de la om la mașină și cum afectează aceasta persoana umană ca subiect de drept); în fine, ne vom referi la impactul IA asupra drepturilor aferente personalității umane (de exemplu, dreptul la viață privată, la demnitate, la propria imagine) și asupra principiului autonomiei individuale.

7.1. Personalitatea juridică electronică: o ipoteză încă respinsă

Ideea acordării unei forme de personalitate juridică inteligenței artificiale – adesea discutată sub denumirea de „electronic personhood” (personalitate electronică) – a fost propusă explicit pentru prima dată într-un for oficial prin Rezoluția Parlamentului European din 16 februarie 2017 privind normele de drept civil în robotică. În acea rezoluție, eurodeputații sugerau Comisiei Europene să analizeze posibilitatea stabilirii unui statut juridic specific pentru roboții autonomi cei mai avansați, astfel încât aceștia să poată fi considerați, într-un anumit sens, „persoane electronice” responsabile de propriile acțiuni[15]. Motivația invocată avea un dublu sens: pe de o parte, să se asigure că există întotdeauna un titular al răspunderii (dacă robotul ar avea patrimoniu propriu și obligație de asigurare, victima ar putea fi despăgubită din acel patrimoniu), iar pe de altă parte, să se reglementeze relația dintre oameni și roboți într-un mod etic (inclusiv pe baza unor idei precum obligativitatea unui „buton de oprire” – kill switch – pentru protecția oamenilor).

Propunerea a stârnit reacții mixte; un număr mare de experți (peste 150) în robotică, IA, drept și etică au semnat în 2018 o scrisoare deschisă către Comisie, argumentând împotriva ideii de personalitate electronică. Aceștia au subliniat că o asemenea recunoaștere ar fi nepotrivită și ar risca să diminueze protecția victimelor, permițând firmelor să se ascundă în spatele unor „entități artificiale” cu răspundere limitată[16]. S-a pus accentul pe faptul că răspunderea producătorilor și utilizatorilor trebuie menținută cu orice preț, altfel stimulentele pentru prevenirea prejudiciilor s-ar reduce drastic. De asemenea, din punct de vedere etico-filozofic, s-a argumentat că personalitatea juridică implică asumarea unor drepturi și obligații ce presupun conștiință și voință, calități pe care IA, oricât de sofisticată ar fi, nu le are și nici nu le poate avea în sensul uman, astfel încât am avea de-a face cu o ficțiune periculoasă.

Comisia Europeană a reținut aceste obiecții, iar în documentele ce au precedat propunerile legislative din 2021-2022 a precizat că nu consideră necesară sau adecvată acordarea personalității juridice IA pentru a rezolva problemele privind răspunderea. În schimb, a preferat să consolideze responsabilitatea entităților umane existente (fabricanți, operatori, deținători etc.) și să introducă sisteme de asigurare eficiente[8][16]. Prin urmare, nici AI Act și nici propunerea de directivă privind răspunderea pentru IA nu conțin vreo prevedere în sensul recunoașterii unor drepturi sau obligații ale IA ca subiect de drept distinct. De altfel, art. 47 din AI Act prevede explicit obligația existenței unui reprezentant uman în UE pentru furnizorii de IA din afara Uniunii – subliniind încă odată că se dorește și chiar impune un responsabil uman identificabil pentru orice sistem de IA de pe piață.

Prin urmare, în stadiul actual al legislației, niciun stat membru UE nu recunoaște personalitatea juridică a sistemelor de IA. În afara UE, singurul caz notoriu are mai degrabă valoare anecdotică: cetățenia onorifică acordată robotului umanoid Sophia de către Arabia Saudită (2017), care însă nu are consecințe juridice reale în sensul recunoașterii de drepturi sau obligații, fiind vorba doar de o acțiune publicitară. În dreptul internațional, nu există niciun instrument care să confere calitatea de subiect de drept mașinilor.

Totuși, dezbaterile academice în acest sens continuă; printre argumentele pro regăsim, într-o formă sau alta:

– Posibilitatea de a recunoaște o răspundere directă a IA, fără a mai trebui să se reinterpreteze principiile răspunderii civile delictuale. De exemplu, s-ar putea impune ca un robot ultra-autonom să fie constituit într-o entitate (o companie cu răspundere limitată deținută de producătorul robotului) care să dețină active pentru acoperirea prejudiciilor cauzate de robot. Astfel, victima ar avea un pârât clar – acea entitate – iar producătorul ar contribui inițial cu un capital social sau un fond de asigurare. Acest model, propus de unele puncte de vedere, echivalează de fapt cu a face din robot un fel de filială a companiei-mamă, menită exclusiv să poarte răspunderea (o analogie pertinentă fiind cea cu vaporul sau avionul înmatriculat separat). Susținătorii acestei idei spun că ea ar oferi claritate juridică și ar încuraja inovarea, permițând firmelor să izoleze riscul.

– Recunoașterea unei minime capacități juridice a IA pentru a putea executa acte juridice repetitive în nume propriu (de exemplu, un agent software care încheie micro-contracte în mod permanent – s-ar putea argumenta că e mai simplu dacă agentul are personalitate juridică și contractează ca mandatar în numele unui proprietar). Pentru această ipoteză, replica a venit destul de repede, în sensul că agentul oricum poate acționa ca un mandatar chiar și în lipsa personalității juridice.

– Considerații de ordin etic pe termen lung: dacă s-ar ajunge la o IA cu conștiință sau sensibilitate proprii, situație care rămâne deocamdată în domeniul SF, ar lua naștere și imperativele morale de a-i recunoaște drepturi (similar discuțiilor despre drepturile animalelor foarte inteligente). Unii filosofi ai domeniului tech sugerează să pregătim terenul pentru eventualitatea unei „persoane artificiale” cu conștiință, dar deocamdată suntem foarte departe de acea ipoteză, inclusiv din punct de vedere tehnic.

Însă, după cum era de așteptat, argumentele contra rămân dominante:

  • Risc de eludare a răspunderii: corporațiile ar putea crea armate de „persoane electronice”, slab capitalizate, care să preia toată responsabilitatea legală, în timp ce ele ar colecta exclusiv profiturile, ceea ce ar constitui un regres față de conceptul actual al răspunderii producătorului și ar slăbi regimul de protecție a consumatorului.
  • Lipsa unei necesități reale: la momentul actual dreptul (național, european sau internațional) deține instrumente suficiente (asigurări, sisteme de răspundere obiectivă etc) fără a fi necesar să se recurgă la noi instituții juridice.
  • Un subiect de drept presupune și recunoașterea de drepturi subiective, nu numai obligații; așadar, suntem oare pregătiți să-i recunoaștem inteligenței artificiale dreptul la viață sau la integritate (inclusiv fizică)? Răspunsul este, pentru moment, sigur nu. Dar, în ipoteza în care i s-ar recunoaște personalitatea juridică, chiar și limitată, am intra pe un teritoriu problematic unde este greu de determinat cine stabilește ce drepturi i se acordă, și mai ales ce nu. Mai mult decât atât, posibilitatea unor litigii în cadrul cărora, în numele IA, o persoană ar pretinde ocrotirea unor drepturi; de exemplu, proprietarul unui robot autonom ar putea pretinde că statul i-a „omorât” robotul în mod nelegal, invocând un drept al acestuia la existență, dacă nu chiar la „viață”. O atare situație pare la acest moment fantezistă, dar odată recunoscută IA ca subiect de drept, astfel de acțiuni devin tehnic posibile.
  • O obiecție conceptuală se referă la faptul că personalitatea juridică este strâns legată de societatea umană, de conceptul de dignitas al oricărei ființe umane. Chiar și persoanele juridice tradiționale (societățile comerciale, asociații etc.) sunt, în ultimă instanță, ficțiuni juridice create pentru a servi intereselor unor persoane fizice, și nu sunt entități autonome apărute natural. A recunoaște personalitate juridică unei mașini create de om ar însemna, în opinia multora, o confuzie flagrantă între subiect și obiect, care poate submina întregul edificiu antropic al dreptului.

În consecință, putem afirma, pe bună dreptate, că nicio modificare legislativă internă nu se întrevede în România privind recunoașterea IA ca subiect de drept. Codul civil definește clar persoana fizică (a cărei personalitate juridică începe de regulă o dată cu nașterea omului viu, conform art. 25 C. civ.) și persoana juridică (o entitate organizată, cu un scop licit și patrimoniu distinct, recunoscută de lege, conform art. 187 C. civ.). IA nu se încadrează în niciuna din aceste definiții; în cel mai bun caz, s-a vehiculat ideea creării unei noi forme de persoană juridică, o entitate autonomă care are drept asociat un IA, dar această propunere a rămas doar un exercițiu de speculație academică.

7.2. Capacitatea și voința juridică în era IA. Impactul asupra ființei umane

Chiar dacă IA nu poate fi considerată persoană în sens juridic, utilizarea sa pe scară largă influențează modul în care ființele umane își exercită capacitatea de exercițiu și își manifestă voința juridică. Un exemplu concret: se pune problema dacă o decizie luată exclusiv de un algoritm în numele unei persoane este validă ca manifestare de voință a acelei persoane. Juridic, răspunsul este afirmativ, prin mecanismul reprezentării sau al mijlocirii tehnice – așa cum am arătat și mai sus, la secțiunea dedicată contractelor. Însă există riscul ca individul să își piardă treptat autonomia reală de decizie, lăsând IA să hotărască totul (fenomenul poartă denumirea de automation bias). Aici, dreptul civil se intersectează cu domeniul special al protecției persoanelor vulnerabile; astfel, dacă cineva nu mai este capabil să decidă singur pentru că se bazează orbește pe IA, am putea ajunge la situații discutabile privind valabilitatea consimțământului manifestat. Totuși, nu ne aflăm încă în situația unde să vorbim de o incapacitate dobândită exclusiv din cauza IA. Conceptual însă, este util ca legea să impună un control uman adecvat în luarea deciziilor majore. AI Act, de exemplu, prevede necesitatea supravegherii umane pentru sistemele de IA de mare risc (art. 14 AI Act impune ca astfel de sisteme să fie concepute astfel încât să permită intervenția umană și să evite sau semnalizeze situațiile periculoase). Acest principiu, denumit human-in-the-loop, are ecouri și în dreptul civil: de pildă, un mandatar care ar delega totul pe seama unui AI, fără să mai exercite el vreo diligență directă sau indirectă, ar putea fi considerat că acționează neglijent și răspunde dacă din acțiunile IA ar rezulta un prejudiciu. Așadar, capacitatea de exercițiu a persoanei implică nu doar aptitudinea de a se obliga, ci și datoria de a acționa responsabil (duty of care). Altfel spus, transferul deciziei către IA nu îl scutește pe individ de răspunderea juridică aferentă (în lipsa personalității juridice a IA).

Un alt aspect important în discuția de față îl constituie identitatea și viața privată a persoanei în raport cu IA; și aceasta în condițiile în care profilarea extensivă prin IA poate încălca dreptul la viață privată și la protecția datelor personale. Din aceste considerente GDPR reglementează strict deciziile bazate exclusiv pe prelucrări automate, conferind persoanei dreptul de a nu fi supusă unei decizii automate cu efect semnificativ (art. 22 GDPR). În planul dreptului civil, încălcarea acestei prevederi poate fi sancționată prin acordarea de daune morale persoanei vizate, în situația în care i s-a produs un prejudiciu (cum ar fi, de pildă, un credit scoring automat, dar eronat care duce la refuzul unui împrumut, afectând astfel reputația persoanei). În plus, IA poate genera conținut care aduce atingere drepturilor personalității – de exemplu, prin deepfakes, adică imagini sau clipuri video false înfățișând o persoană în ipostaze defăimătoare. Codul civil român (art. 73-74) protejează dreptul la propria imagine și viață privată, permițând acțiuni civile contra celor care distribuie imagini fără consimțământ sau care aduc atingeri reputației cuiva. Dacă un astfel de conținut este generat de IA, răspunde persoana care a folosit IA pentru a genera și difuza acel conținut (ca autor al faptei). Chiar dacă ar pretinde că fapta a fost săvârșită de sistemul IA, instanța va considera acest software ca fiind doar un instrument. Așadar, persoana umană rămâne centrul răspunderii și în sfera drepturilor nepatrimoniale.

O problemă aparte o constituie neuro-IA și modalitățile în care aceasta influențează gândirea umană. Se consideră că o IA avansată, combinată cu cunoștințe neuroștiințifice, poate (într-un viitor nu foarte îndepărtat) să influențeze direct creierul uman (de pildă prin interfețe creier-computer extrem de sofisticate). S-a speculat chiar ipoteza acordării personalității juridice direct creierului uman conectat la IA, ca recunoaștere a dualității umano-tehnologice emergente[7]. Această idee futuristă și speculativă relevă un aspect foarte important: granița dintre persoană și mașină se subțiază prin tehnologii de augmentare. Din fericire, dreptul civil român a rămas suficient de flexibil și adaptat unor asemenea evoluții, astfel încât conceptul de persoană fizică include corpul uman integrat cu proteze sau extensii. Astfel, dacă vom ajunge la oameni cu implanturi IA care le sporesc capacitățile și aptitudinile naturale, aceste implanturi ar fi tratate ca parte a persoanei și nu ca entități separate. Însă o problemă va fi delimitarea consimțământului informat: dacă un IA implantat în creierul uman ia o decizie motrică, aceasta va fi acțiunea persoanei sau un accident provocat de un obiect? Probabil tot persoana va fi considerată responsabilă, eventual exonerată dacă a fost un defect al implantului (caz clasic de produs cu defect).

În final, se impune să abordăm succint și chestiunea statutului juridic al animalelor vs. cel al IA; cum arătam și mai sus, unele sisteme juridice (Franța, Germania, etc.) recunosc animalul ca o categorie aparte: ființă simțitoare, nu simplu bun, dar nici persoană – dar și în aceste situații proprietatea asupra animalelor există, doar că prezintă anumite restricții (stabilite inclusiv prin legea privind protecția animalelor). Unii autori sugerează că, dacă vom crea roboți umanoizi foarte realiști, societatea ar putea simți nevoia să le acorde un anumit tratament etic special. De exemplu, Japonia cunoaște deja un „cult” al roboților și prezintă un cadru de „drept al roboților” emergent, mai mult cutumiar. Totuși, strict legal, nimeni nu a mers până la a recunoaște vreo protecție specială pentru roboți similară cu cea a animalelor, iar în România, unde mentalitatea juridică este conservatoare în această privință, este foarte puțin improbabil să apară vreo normă de protecție a „drepturilor roboților” în viitorul apropiat.

În consecință, persoana umană rămâne unica entitate dotată cu voință juridică și demnitate în sistemele juridice actuale, iar inteligența artificială este considerată un instrument, oricât de sofisticat ar fi. Provocarea pentru dreptul civil contemporan rezidă în a proteja persoanele de eventualele atingeri aduse de către IA (prin adaptarea conceptelor de consimțământ, eroare, bună-credință, viață privată ș.a.) și, concomitent, de a găsi moduri de atribuire a consecințelor juridice pentru actele IA tot persoanelor, fără a crea lacune de responsabilitate. Până acum, soluția aleasă este de a refuza vehement personalitatea juridică a IA, menținând principiul antropocentric al dreptului civil. În anii următori, vom vedea dacă această abordare rezistă în fața progreselor rapide ale tehnologiei – de exemplu, dacă ia naștere IA generală, dezbaterea ar putea fi redeschisă, incluzând noi perspective filosofice, etice și juridice fundamentale.

8. Câteva concluzii

Inteligența artificială reprezintă, fără îndoială, o provocare transformativă pentru dreptul civil, însă nu una insurmontabilă. Analiza de față a evidențiat că, în ordinea juridică românească și europeană actuală, există deja instrumente și principii care pot fi adaptate cu ușurință pentru a reglementa noile realități materiale, sociale și economice create de IA. Departe de a impune o revoluție a conceptelor de bază, IA determină, în realtate, mai degrabă o evoluție și nuanțare a acestora.

În materia contractelor, dreptul comun, centrat pe consimțământ, autonomie de voință și buna-credință, rămâne aplicabil, dar cu ajustări interpretative. Contractele pot fi încheiate cu ajutorul sau prin intermediul agenților inteligenți, fiind recunoscute ca atare, însă este necesar ca părțile să își asume riscurile utilizării IA (de exemplu, prin auditarea algoritmilor folosiți și prin inserarea de clauze contractuale corespunzătoare). Protecția consumatorilor și regulile de transparență impuse de legislația UE vor juca un rol esențial în asigurarea unui consimțământ valid și informat în era contractelor automatizate, iar recomandarea este ca profesioniștii să informeze clar consumatorii în situațiile când interacționează cu sisteme automate și să ofere posibilitatea intervenției umane, pentru a preveni litigii privind viciile de consimțământ și practicile înșelătoare.

Cu privire la bunuri, IA nu a condus (și probabil nici nu va conduce în curând) la recategorisiri dramatice: sistemele de IA sunt privite ca bunuri incorporale (software, know-how, date) sau ca parte integrantă din bunuri corporale (roboți, dispozitive, computere). Dreptul de proprietate se exercită asupra acestor bunuri conform regulilor generale, iar drepturile de proprietate intelectuală protejează forma și substanța algoritmilor. O tendință notabilă în UE este crearea unui cadru reglementat de acces la date (prin Data Act), care, deși nu introduce „proprietatea datelor”, echilibrează interesele actorilor implicați (producători, utilizatori, terți) asupra resursei de date generată de dispozitive inteligente. România va trebui să implementeze aceste prevederi, asigurând în practică accesul echitabil la date în relațiile contractuale și, totodată, protecția datelor cu caracter personal. Pe termen lung, dacă IA va produce inovări sau opere fără intervenție umană, este posibil să se ridice problema unor forme noi de protecție sui-generis, dar deocamdată legislația menține cerința aportului uman pentru recunoașterea drepturilor de autor sau brevet.

În materie de răspundere civilă, s-a conturat o mutare a accentului de la culpa subiectivă la răspunderea obiectivă și mecanisme speciale de asigurare. IA servește ca un catalizator pentru tendința existentă de a facilita despăgubirea victimei fără a insista pe probarea vinovăției. Răspunderea pentru fapta lucrului (art. 1376 C. civ.) și răspunderea pentru produse defectuoase vor fi pilonii soluționării multor cazuri de prejudicii cauzate de sisteme autonome. Adoptarea la nivelul UE a noii Directive privind produsele defectuoase, care include software-ul și IA, va oferi victimelor un cadru îmbunătățit pentru a obține despăgubiri din partea producătorilor și altor actori ai lanțului valoric. De asemenea, impunerea unor cerințe de transparență și dezvăluire (deja prevăzute în AI Act pentru conformitate și în alte propuneri de acte normative în domeniul răspunderii civile) va ușura sarcina probatorie. În România, se impune o analiză a cadrului legislativ pentru a identifica eventualele lacune – spre exemplu, definirea conceptului de „lucru” din Codul civil ar putea fi extinsă interpretativ pentru a acoperi și sisteme intangibile de IA care provoacă daune (prin analogie, ar fi vorba de un „lucru” virtual aflat sub controlul unei persoane). Pe plan procesual, judecătorii vor trebui să gestioneze probleme de probă din ce în ce complexe, eventual recurgând la expertize tehnice sofisticate. Este de așteptat ca tot mai multe litigii să aibă ca obiect prejudicii legate de IA (accidente auto cu vehicule semi-autonome, erori de algoritm în servicii financiare, încălcări de siguranță a datelor etc.), iar instanțele vor crea treptat o jurisprudență care să clarifice standardele de diligență ale utilizatorilor de IA și condițiile angajării răspunderii.

În ceea ce privește persoana și statutul subiectelor de drept, concluzia actuală fermă este menținerea principiului conform căruia inteligența artificială nu are personalitate juridică. Persoana umană (și persoanele juridice create de oameni) rămân singurii subiecți ai raporturilor de drept civil. IA, oricât de autonomă sau „inteligentă” ar fi, este tratată juridic ca un instrument, un obiect al drepturilor și obligațiilor deținute de oameni. Prin urmare, orice act sau fapt juridic ce implică IA se va reflecta, din punct de vedere al răspunderii și al efectelor legale, asupra uneia sau mai multor subiecte de drept identificate (proprietar, utilizator, producător etc.). Acest principiu garantează că răspunderea și controlul rămân în sfera umană, prevenind „viduri de răspundere juridică”. Totodată, recunoașterea valorii intrinseci a ființei umane (demnitatea umană) rămâne neatinsă într-o lume în care roboții devin tot mai prezenți: dreptul civil continuă să protejeze viața, sănătatea, intimitatea și onoarea persoanei, iar noile forme de atingeri aduse acestor valori prin tehnologie (cum ar fi folosirea IA pentru supraveghere în masă sau pentru crearea de conținut defăimător) pot fi încadrate în dispozițiile existente privind fapta ilicită cauzatoare de prejudiciu (art. 1349 C. civ. generalele și art. 73-74 referitor la viața privată și demnitate).

Privind înainte, dreptul civil român se va dezvolta sub influența directivelor și regulamentelor europene menționate, precum și a practicii judiciare care se va forma în timp. Este probabil ca în anii ce vin să apară adaptări legislative punctuale, precum reglementări speciale pentru vehiculele autonome (în Codul rutier și corelativ în Codul civil în privința răspunderii), poate chiar și prevederi despre validitatea testamentelor sau a altor acte unilaterale generate cu ajutorul IA, în condițiile în care asistăm deja la discuții despre folosirea acesteia în redactarea testamentelor. De asemenea, ar putea apărea coduri de conduită sau standarde tehnice cu relevanță juridică, adoptate de industrie sau de organisme de standardizare (cum ar fi standarde ISO privind siguranța roboților colaborativi), care, deși nu sunt acte normative, vor influența identificarea și conturarea culpei în caz de litigii (în sensul art. 1357 C. civ., neconformarea la un standard cunoscut poate fi o probă de neglijență).

Nu în ultimul rând, jurisprudența comparată – inclusiv deciziile CJUE – va juca un rol semnificativ. De pildă, dacă CJUE va pronunța hotărâri preliminare interpretând noțiunile din noua Directivă PLD 2024, acestea se vor aplica și instanțelor române. Este de așteptat ca unele cauze să ajungă și pe rolul Curții de Justiție sau al altor instanțe internaționale (CEDO, de exemplu, care poate fi sesizată în privința unor probleme precum decizii automate discriminatorii – art. 8 și 14 din Convenție). Astfel, dreptul civil național este obligat să evolueze într-un context transnațional și interdisciplinar.

Impactul IA asupra dreptului civil, deși profund, poate fi gestionat printr-o combinație de continuitate a principiilor de bază și inovație normativă, acolo unde aceasta este strict necesară. Dreptul civil român, în simbioză cu dreptul european, pare să urmeze un parcurs echilibrat, fără a prezenta o rezistență rigidă la schimbare (care ar lăsa viduri legislative), dar și fără să abandoneze conceptele tradiționale, verificate (fapt ce ar duce la un haos conceptual). În loc să creeze un drept distinct, special, al roboților, tendința în dreptul civil modern este de a incorpora fenomenul IA în cadrul existent – adaptând definiții, extinzând analogii, impunând noi obligații de diligență – astfel încât tehnologia să fie integrată fără a submina securitatea raporturilor juridice civile. Provocarea majoră rămâne așadar menținerea antropocentrismului dreptului civil (protecția omului și a valorilor sale) într-o lume tot mai dominată de procese algoritmice. Din analiza efectuată, rezultă că atât doctrina, cât și inițiativele legislative din ultimii ani merg în direcția asigurării principiului conform căruia inteligența artificială servește interesele umane și că, juridic vorbind, „omul rămâne măsura tuturor lucrurilor” – inclusiv a lucrurilor (sau serviciilor) inteligente pe care le creează.

În concluzie, putem afirma că dreptul civil român dispune de resorturile necesare pentru a face față epocii inteligenței artificiale, cu condiția să continue dialogul strâns cu evoluțiile tehnologice și să se inspire din soluțiile europene și internaționale. Așa cum revoluțiile industriale anterioare au fost absorbite în plasa normativă civilă (prin noile reglementări privind energia, transporturile, comunicațiile etc.), tot astfel revoluția digitală și IA vor fi integrate, pas cu pas, într-un „drept al inteligenței artificiale” aflat încă în formare, dar care nu este altceva decât dreptul civil tradițional adaptat la circumstanțe moderne[2]. Misiunea juriștilor – teoreticieni și practicieni – este de a asigura că această adaptare servește binelui comun, protejând persoana și patrimoniul, stimulând, în același timp și în egală măsură, inovarea responsabilă.

 

Referințe bibliografice:

[1] Mircea Duțu, „Despre premisele, dezvoltările și perspectivele unui drept al inteligenței artificiale”, în Pandectele Române nr. 4/2024 (Wolters Kluwer România, 2024).

[2] Mircea Duțu, „Inteligența Artificială și răspunderea civilă”, în Pandectele Române nr. 6/2024 (Wolters Kluwer România, 2024).

[3] Regulamentul (UE) 2024/1689 al Parlamentului European și al Consiliului din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială, publicat în Jurnalul Oficial al UE L 327 din 12 iulie 2024.

[4] Comisia Europeană, Propunere de Directivă a Parlamentului European și a Consiliului privind adaptarea normelor de răspundere civilă extracontractuală la inteligența artificială (COM(2022) 496 final, Bruxelles, 28.9.2022).

[5] BNT Attorneys, „România: Regulamentul UE privind Inteligența Artificială – Ce trebuie să știe companiile”, articol informativ, august 2024.

[6] WilmerHale, „Limited-Risk AI — A Deep Dive Into Article 50 of the European AI Act”, client alert, iulie 2024.

[7] Mircea Duțu, „ODIA – Sub impactul IA, regândirea lumii subiectelor de drept!”, Observatorul Dreptului Inteligenței Artificiale, iulie 2024. (Wolters Kluwer România).

[8] Caitlin Andrews, „European Commission withdraws AI Liability Directive from consideration”, IAPP News, 12 feb. 2025.

[9] Mircea Duțu, „Inteligența Artificială și răspunderea civilă”, Pandectele Române 6/2024.

[10] Eliza Mik, „Much Ado about Artificial Intelligence or: the Automation of Contract Formation”, (2022) 30 International Journal of Law and Information Technology 484.

[11] Legea nr. 365/2002 privind comerțul electronic (publicată în M. Of. nr. 483/5 iul. 2002), art. 7.

[12] Mirela-Carmen Dobrilă, „Inteligența artificială la încheierea contractelor. Și cum rămâne cu protecția datelor personale?”, articol publicat în Revista Universul Juridic (UJ Premium), nr. 2/2024, pp. 45-58.

[13] Legea nr. 8/1996 privind dreptul de autor și drepturile conexe, cu modif. ult., art. 1 și art. 3 alin. (1).

[14] Claudia Stanciu, „Inteligența artificială și impactul ei asupra domeniului juridic – dimensiunea juridică a noilor tehnologii”, JURIDICE.ro (Juridice Next), articol online, 2021.

[15] Parlamentul European, Rezoluția din 16 februarie 2017 cu recomandări către Comisie privind normele de drept civil în robotică (2015/2103(INL)), JO C 252, 18.7.2018, p. 239.

[16] Expert Group on Liability and New Technologies – New Technologies Formation, Report on Liability for Artificial Intelligence and other Emerging Digital Technologies, Commission document, 2019.

[17] Codul civil al României (Legea nr. 287/2009, republicat 2011), art. 1376 alin. (1).

[18] Legea nr. 240/2004 privind răspunderea producătorilor pentru pagubele generate de produsele defectuoase (M. Of. nr. 552/2004).

[19] Directiva (UE) 2024/2853 a Parlamentului European și a Consiliului din 23 octombrie 2024 privind răspunderea pentru produsele defectuoase.

[20] European Commission, „Liability for Artificial Intelligence – EU Approach”, site oficial, 2023.

[21] Samantha Silver e.a., „A new liability framework for products and AI”, Kennedys Law LLP, decembrie 2024.

[22] Cugia & Cuomo, „The European Parliament called to give robots the legal status as ‘electronic persons’”, Lexology, 18 ianuarie 2017.

[23] European Law Institute (ELI), „Innovation Paper on Artificial Intelligence (AI) and Public Administration – Executive Summary”, 2021.

Lasă un răspuns Anulează răspunsul

Trebuie să fii autentificat pentru a publica un comentariu.

Arhive

  • aprilie 2025
  • martie 2025
  • februarie 2025
  • ianuarie 2025
  • decembrie 2024
  • noiembrie 2024
  • octombrie 2024
  • septembrie 2024
  • august 2024
  • iulie 2024
  • iunie 2024
  • mai 2024
  • aprilie 2024
  • martie 2024
  • februarie 2024
  • ianuarie 2024
  • decembrie 2023
  • noiembrie 2023
  • octombrie 2023
  • septembrie 2023
  • august 2023
  • iulie 2023
  • iunie 2023
  • mai 2023
  • aprilie 2023
  • martie 2023
  • februarie 2023
  • ianuarie 2023
  • decembrie 2022
  • noiembrie 2022
  • octombrie 2022
  • septembrie 2022
  • august 2022
  • iulie 2022
  • iunie 2022
  • mai 2022
  • aprilie 2022
  • martie 2022
  • februarie 2022
  • ianuarie 2022
  • Supliment 2021
  • decembrie 2021
  • noiembrie 2021
  • octombrie 2021
  • septembrie 2021
  • august 2021
  • iulie 2021
  • iunie 2021
  • mai 2021
  • aprilie 2021
  • martie 2021
  • februarie 2021
  • ianuarie 2021
  • decembrie 2020
  • noiembrie 2020
  • octombrie 2020
  • septembrie 2020
  • august 2020
  • iulie 2020
  • iunie 2020
  • mai 2020
  • aprilie 2020
  • martie 2020
  • februarie 2020
  • ianuarie 2020
  • decembrie 2019
  • noiembrie 2019
  • octombrie 2019
  • septembrie 2019
  • august 2019
  • iulie 2019
  • iunie 2019
  • mai 2019
  • aprilie 2019
  • martie 2019
  • februarie 2019
  • ianuarie 2019
  • decembrie 2018
  • noiembrie 2018
  • octombrie 2018
  • septembrie 2018
  • august 2018
  • iulie 2018
  • iunie 2018
  • mai 2018
  • aprilie 2018
  • martie 2018
  • februarie 2018
  • ianuarie 2018
  • decembrie 2017
  • noiembrie 2017
  • octombrie 2017
  • septembrie 2017
  • august 2017
  • iulie 2017
  • iunie 2017
  • mai 2017
  • aprilie 2017
  • martie 2017
  • februarie 2017
  • ianuarie 2017
  • decembrie 2016
  • noiembrie 2016
  • octombrie 2016
  • septembrie 2016
  • august 2016
  • iulie 2016
  • iunie 2016
  • mai 2016
  • aprilie 2016
  • martie 2016
  • februarie 2016
  • ianuarie 2016
  • decembrie 2015
  • noiembrie 2015
  • octombrie 2015
  • septembrie 2015
  • august 2015
  • iulie 2015
  • iunie 2015
  • mai 2015
  • aprilie 2015
  • martie 2015
  • februarie 2015
  • ianuarie 2015

Calendar

mai 2025
L Ma Mi J V S D
 1234
567891011
12131415161718
19202122232425
262728293031  
« apr.    

Categorii

  • Abstract
  • Actualitate legislativă
  • Alte categorii
  • Din jurisprudența CCR
  • Din jurisprudența ÎCCJ
  • Editorial
  • HP
  • Interviu
  • Prefata
  • Recenzie de carte juridică
  • RIL
  • Studii, articole, opinii
  • Studii, discuții, comentarii (R.  Moldova și Ucraina)
  • Supliment 2016
  • Supliment 2021

© 2023 Copyright Universul Juridic. Toate drepturile rezervate. | Theme by ThemeinProgress | Proudly powered by WordPress