Machina sapiens. Înspre o răspundere penală exclusivă?

1. Introducere

Tehnologia este considerată a fi modernă, dar rădăcinile ei nu sunt, în esență, moderne. Încă din antichitate, umanitatea a căutat să-și ușureze viața prin diferite instrumente. În epoca de piatră, aceste instrumente au fost din piatră. Ulterior, omenirea a descoperit avantajele metalului, și astfel instrumentele au fost confecționate din metal. Cum omenirea a evoluat în cunoaștere, în prezent, regăsim o multitudine de metode și instrumente care sunt menite să ne facă viața mult mai ușoară. În mod evident, lumea tehnologiei evoluează în ritm alert. În anul 1940, începe studiul inteligenței artificiale (AI). De atunci și până în prezent, AI a devenit parte integrală a vieții moderne, ajungând, în cele mai multe dintre cazuri, să înlocuiască agenții umani în realizarea unor sarcini, futurologia semnalând apariția unei noi specii, machina sapiens, care va trăi alături de oameni, pe Pământ[1].

Din perspectivă europeană, observăm o preocupare sporită în ceea ce privește abordarea AI. În 2017, Consiliul European a solicitat „o conștientizare a urgenței de a aborda tendințele emergente”, inclusiv „aspecte cum ar fi inteligența artificială […], garantându-se, în același timp, un nivel ridicat de protecție a datelor, de drepturi digitale și de standarde etice”[2]. În 2021, la Bruxelles, se conturează, pentru prima dată, o propunere de Regulament al Parlamentului European și al Consiliului, de stabilire a unor norme armonizate privind AI (Legea privind AI).

Privind din această optică, se impune o analiză a angajării răspunderii penale a AI, analiză ce va forma obiectul prezentului articol.

Dacă, în ceea ce privește persoana fizică, respectiv persoana juridică, problema angajării răspunderii penale nu ridică mari problematici (sic!), nu se poate susține același lucru despre răspunderea penală a AI. Aproape orice persoană fizică sau juridică este conștientă de faptul că există legi care trebuie respectate, în special cele penale, în caz contrar coerciția statală fiind antrenată. În trecut, când persoanele juridice nu erau subiecți de drept penal, a existat o anume teamă, întrucât acestea – persoanele juridice – erau implicate în comiterea de infracțiuni, dar nu exista temei juridic pentru a li se angaja responsabilitatea, ceea ce a condus, în secolul al șaptesprezecelea, la o aplicare a dreptului penal și acestora. Astfel, actualmente, după cum sugerează un autor[3], aceeași teamă de AI (ca și agent care comite infracțiuni) ar trebui să conducă la crearea unui cadru legislativ care să reglementeze în concret instituția răspunderii juridice a AI, întrucât, după cum aminteam anterior, putem discuta de situații concrete în care agenții AI au comis infracțiuni, însă, pentru a le angaja responsabilitatea, nu există temei juridic.

În mod tradițional, se consideră că entitățile AI nu au personalitate juridică. Acestea sunt calificate ca fiind obiecte[4]. Acesta reprezintă punctum crucis al întrebării „poate AI să răspundă penal?”. În diferitele ramuri de drept (drept civil, drept administrativ etc.), și în special drept penal, există o distincție cheie între subiect (sau agent) și obiect. Potrivit lui George P. Fletcher, „[un] subiect este cineva care acționează, iar un obiect este cineva sau ceva asupra căruia se acționează”[5]. Astfel, ne raliem opiniei doctrinare române, care susține idea conform căreia AI poate fi subiect de drept și, în dreaptă consecință, pasibil de a răspunde juridic[6].

 

2. Răspunderea penală. Accepțiuni

Vintilă Dongoroz definește răspunderea penală ca fiind „consecința juridică imediată a săvârșirii unei infracțiuni (…). Această consecință cade, în virtutea legii, asupra făptuitorului chiar în momentul săvârșirii faptei, iar nu din momentul în care acesta este tras efectiv la răspundere. Infracțiunea este cauza răspunderii penale, iar recurgerea la sancțiuni de drept penal (…) este consecința răspunderii penale”[7].

Pe aceeași logică, s-a semnalat în doctrina internațională[8], valabil și în cea română[9], că în ceea ce privește persoana fizică, respectiv persoana juridică, pentru a fi în prezența unei răspunderi penale, este crucială întrunirea a două elemente. Primul element este cel extern sau factual, respectiv conduita infracțională – actus reus ‒, în timp ce al doilea element este cel subiectiv, respectiv vinovăția (culpabilitatea) față de elementul extern – mens rea. Întrunirea acestor două elemente trebuie să fie cumulativă, ceea ce înseamnă că în lipsa unui element, nu se va putea vorbi despre o răspundere penală.

În linii mari, actus reus îmbracă forma unei acțiuni sau omisiuni (nullum crimen sine actu)[10]. Se poate vorbi și de anumite circumstanțe, care în esență descriu conduita, dar nu derivă din ea în mod necesar. Doar pictează acțiunea cu culorile sale infracționale.

La polul opus, mens rea îmbracă forma unor numeroase procese intelective și volitive. Cel mai mare nivel este exprimat de cunoștință, fiind acompaniată de cele mai multe ori de o intenție[11]. Nivelele joase îmbracă forma unor neglijențe (o persoană rezonabilă ar fi putut sau ar fi trebuit să cunoască ceva)[12].

În același registru, trebuie avut în vedere că de esența laturii subiective analizate este faptul că accentul cade pe factorul intelectiv-conștință, respectiv factorul volitiv-voință, aspect întărit de formularea legislatorului din cuprinsul art. 16 C. pen., de pildă, când se face vorbire de intenția directă: „Fapta este săvârșită cu intenție când făptuitorul prevede rezultatul faptei sale (factorul intelectiv-conștință), urmărind producerea lui (factorul volitiv-voință) prin săvârșirea acelei fapte”.

Astfel, concluzionând sub acest punct, atât timp cât sunt întrunite cele două elemente ale răspunderii penale, responsabilitatea poate fi angajată.

 

3. Răspunderea penală a AI. Analiză

În contextul coexistenței agenților umani cu cei artificiali, prinde contur întrebarea legitimă: cine răspunde legal dacă un robot (complet automatizat, care operează cu, și de ce nu, chiar fără implicarea directă a agentului uman) provoacă pagube, violențe, sau chiar omucidere? În acest sens, putem aminti spețe reale în care un sistem AI a dat dovadă de conduită infracțională. De pildă, în 1981, un japonez de 37 de ani, care muncea în sfera motorcycle, a fost ucis de un robot care lucra aproape de el[13]. Mai mult, un robot a ucis un tehnician dintr-o fabrică de mașini într-un accident cu nuanțe înfricoșătoare ale unui film științifico-fantastic[14].

Cu toate că această problemă a fost abordată în trecut[15], în contextul actual se impune o atenție mult mai sporită în vederea unei examinări complexe a problemei. Inexistența unor reglementări legale în materie, face ca problematica răspunderii penale a AI să rămână netranșată. Putem înțelege această „sfială”, care rezidă și din natura complexă a mașinăriilor inteligente și a persoanelor multiple implicate în procesul „insuflării de viață” a acestora, însă nu o încurajăm.

Pe aceeași linie de idei, dacă o infracțiune este săvârșită de o persoană deficientă mintal sau chiar un animal, atunci făptuitorul este considerat a fi un agent inocent pentru că îi lipsește capacitatea mintală, condiție sine qva non în formarea elementului mens rea. Să nu uităm că sub imperiul art. 15 C. pen., ne este relevat faptul că „infracțiunea este fapta prevăzută de legea penală, săvârșită cu vinovăție, nejustificată și imputabilă persoanei care a săvârșit-o, iar infracțiunea este singurul temei al răspunderii penale”. Mai mult, legiuitorul accentuează că „fapta constituie infracțiune numai dacă a fost săvârșită cu forma de vinovăție cerută de legea penală”. Astfel, se consacră principiului nulla poena sine culpa, consecința fiind că răspunderea penală nu poate fi decât subiectivă. Răspunderea penală subiectivă implică, așa cum am amintit și mai sus, pe lângă o manifestare umană exterioară, existența vinovăției. Totuși, dacă agentul nevinovat a fost instruit de o altă persoană, de exemplu, proprietarul unui câine a instruit câinele să atace pe cineva, atunci instructorul este tras la răspundere penală.

S-ar putea pune problema, pe bună dreptate, dacă altcineva răspunde penal pentru faptele comise de AI (ex. programatorul), nu ar contraveni principiului personalității răspunderii penale? Avându-se în vedere că, sub acest principiu, răspunderea poate interveni doar pentru fapta proprie, nicidecum pentru fapta altuia.

Cu toate acestea, demn este de menționat că dreptul penal, de-a lungul evoluției sale, a cunoscut și forme ale răspunderii penale colective, cum ar fi dușegubina din Evul Mediu[16]. Totodată, în dreptul persoanei juridice doctrina subliniază incompatibilitatea acestui principiu al răspunderii personale[17], subliniindu-se că, în ceea ce privește persoana juridică (care este, în esență, o abstractizare, nu o întruchipare materială), se poate discuta de o „diluare a caracterului personal” al răspunderii[18]. De ce în dreptul entităților AI nu am putea avea aceeași optică?


[1] Gabriel Hallevy, The Criminal Liability of Artificial Intelligence Entities – from Science Fiction to Legal Social Control, The University of Akron, March 2016, p. 175.

[2] Consiliul European, Reuniunea Consiliului European (19 Octombrie 2017) – Concluzie EUCO 14/17, 2017, p. 8 disponibil la https://www.consilium.europa.eu/media/21620/19-euco-final-conclusions-en.pdf?fbclid=IwAR1iai5AHKxkcA_slLWoEvAaRnWWN16m2JjRF7kCjide6XSojcJjyhg6Lc4 [accesat 30.03.2022].

[3] David Lyons, Open Texture and the Possibility of Legal Interpretation, 18 Law PHIL., 1999, pp. 297-309.

[4] Pedro Miguel Freitas, Francisco Andrade, Paulo Novais, Criminal Liability of Autonomous Agents: from the unthinkable to the plausible, Law School, Universidade do Minho, Braga, Portugal, 2013, p. 149.

[5] Ibidem.

[6] Laura Maria Stănilă, Inteligența artificială. Dreptul penal și sistemul de justiție penală: amintiri despre viitor, Ed. Universul Juridic, 2020, p. 104.

[7] Vintilă Dongoroz ș.a., Explicații teoretice ale Codului penal român, vol. I, Partea generală, Ediția Academiei, București, 1969, p.19.

[8] Joshua Dressler, Cases and Materials on Criminal Law, American Casebook Series, 2007, p. 126.

[9] Laura Maria Stănilă, Drept penal. Partea generală II, Ed. Universul Juridic, 2019, p. 74.

[10] Walter Harrison Hitchler, The Physical Element of Crime, DICK. L. REV. 95, 1934.

[11] Rollin M. Perkins, „Knowledge” as a Mens Rea Requirement, 29 HASTINGS L.J., 1978, p. 953.

[12] Jerome Hall, Negligent Behaviour Should Be Excluded from Penal Liability, 63 COLUM. L. REV., 1963, p. 632.

[13] Yueh-Hsuan Weng et.al., Toward the Human-Robot Co-Existence Society: On Safety Intelligence for Next Generation Robots, International Journal of Society and Robot, 2009, p. 273.

[14] Colin Fernandez, Robot kills factory worker after picking him up and crushing him against a metal plate at Volkswagen plant in Germany, DAILY MAIL, Jul. 1st, 2015, 22.44 BST, disponibil la https://www.dailymail.co.uk/news/article-3146547/Robot-kills-man-Volkswagen-plant-Germany.html [accesat 24.03.2022].

[15] Willick, M., Artificial Intelligence: Some Legal Approaches and Implications, AI Magazine, 1983, 4(2), p.5; Karnow, C.E.A. Liability for Distributed Artificial Intelligences, Berkeley Technology Law Journal, 1996, 11(1), pp. 147–204.

[16] I. Tanoviceanu, Tratat de drept și procedură penală, vol. III, Tipografia Curierul Judiciar, București, 1925, pp. 115-133.

[17] Laura Maria Stănilă, Drept penal. Partea generală II, Ed. Universul Juridic, București, 2019, p. 80.

[18] V. Pașca, Drept penal. Partea generală, ediția a III-a, Ed. Universul Juridic, București, 2014, p. 35.

Machina sapiens. Înspre o răspundere penală exclusivă? was last modified: august 4th, 2022 by Daniel-Cosmin Sporea

Numai utilizatorii autentificați pot scrie comentarii

Arhiva Revista

Despre autor:

Daniel-Cosmin Sporea

Daniel-Cosmin Sporea

Este student, Facultatea de Drept, Universitatea de Vest din Timișoara.
A mai scris: