Machina sapiens. Înspre o răspundere penală exclusivă?
Daniel-Cosmin Sporea - iulie 4, 20221. Introducere
Tehnologia este considerată a fi modernă, dar rădăcinile ei nu sunt, în esență, moderne. Încă din antichitate, umanitatea a căutat să-și ușureze viața prin diferite instrumente. În epoca de piatră, aceste instrumente au fost din piatră. Ulterior, omenirea a descoperit avantajele metalului, și astfel instrumentele au fost confecționate din metal. Cum omenirea a evoluat în cunoaștere, în prezent, regăsim o multitudine de metode și instrumente care sunt menite să ne facă viața mult mai ușoară. În mod evident, lumea tehnologiei evoluează în ritm alert. În anul 1940, începe studiul inteligenței artificiale (AI). De atunci și până în prezent, AI a devenit parte integrală a vieții moderne, ajungând, în cele mai multe dintre cazuri, să înlocuiască agenții umani în realizarea unor sarcini, futurologia semnalând apariția unei noi specii, machina sapiens, care va trăi alături de oameni, pe Pământ[1].
Din perspectivă europeană, observăm o preocupare sporită în ceea ce privește abordarea AI. În 2017, Consiliul European a solicitat „o conștientizare a urgenței de a aborda tendințele emergente”, inclusiv „aspecte cum ar fi inteligența artificială […], garantându-se, în același timp, un nivel ridicat de protecție a datelor, de drepturi digitale și de standarde etice”[2]. În 2021, la Bruxelles, se conturează, pentru prima dată, o propunere de Regulament al Parlamentului European și al Consiliului, de stabilire a unor norme armonizate privind AI (Legea privind AI).
Privind din această optică, se impune o analiză a angajării răspunderii penale a AI, analiză ce va forma obiectul prezentului articol.
Dacă, în ceea ce privește persoana fizică, respectiv persoana juridică, problema angajării răspunderii penale nu ridică mari problematici (sic!), nu se poate susține același lucru despre răspunderea penală a AI. Aproape orice persoană fizică sau juridică este conștientă de faptul că există legi care trebuie respectate, în special cele penale, în caz contrar coerciția statală fiind antrenată. În trecut, când persoanele juridice nu erau subiecți de drept penal, a existat o anume teamă, întrucât acestea – persoanele juridice – erau implicate în comiterea de infracțiuni, dar nu exista temei juridic pentru a li se angaja responsabilitatea, ceea ce a condus, în secolul al șaptesprezecelea, la o aplicare a dreptului penal și acestora. Astfel, actualmente, după cum sugerează un autor[3], aceeași teamă de AI (ca și agent care comite infracțiuni) ar trebui să conducă la crearea unui cadru legislativ care să reglementeze în concret instituția răspunderii juridice a AI, întrucât, după cum aminteam anterior, putem discuta de situații concrete în care agenții AI au comis infracțiuni, însă, pentru a le angaja responsabilitatea, nu există temei juridic.
În mod tradițional, se consideră că entitățile AI nu au personalitate juridică. Acestea sunt calificate ca fiind obiecte[4]. Acesta reprezintă punctum crucis al întrebării „poate AI să răspundă penal?”. În diferitele ramuri de drept (drept civil, drept administrativ etc.), și în special drept penal, există o distincție cheie între subiect (sau agent) și obiect. Potrivit lui George P. Fletcher, „[un] subiect este cineva care acționează, iar un obiect este cineva sau ceva asupra căruia se acționează”[5]. Astfel, ne raliem opiniei doctrinare române, care susține idea conform căreia AI poate fi subiect de drept și, în dreaptă consecință, pasibil de a răspunde juridic[6].
2. Răspunderea penală. Accepțiuni
Vintilă Dongoroz definește răspunderea penală ca fiind „consecința juridică imediată a săvârșirii unei infracțiuni (…). Această consecință cade, în virtutea legii, asupra făptuitorului chiar în momentul săvârșirii faptei, iar nu din momentul în care acesta este tras efectiv la răspundere. Infracțiunea este cauza răspunderii penale, iar recurgerea la sancțiuni de drept penal (…) este consecința răspunderii penale”[7].
Pe aceeași logică, s-a semnalat în doctrina internațională[8], valabil și în cea română[9], că în ceea ce privește persoana fizică, respectiv persoana juridică, pentru a fi în prezența unei răspunderi penale, este crucială întrunirea a două elemente. Primul element este cel extern sau factual, respectiv conduita infracțională – actus reus ‒, în timp ce al doilea element este cel subiectiv, respectiv vinovăția (culpabilitatea) față de elementul extern – mens rea. Întrunirea acestor două elemente trebuie să fie cumulativă, ceea ce înseamnă că în lipsa unui element, nu se va putea vorbi despre o răspundere penală.
În linii mari, actus reus îmbracă forma unei acțiuni sau omisiuni (nullum crimen sine actu)[10]. Se poate vorbi și de anumite circumstanțe, care în esență descriu conduita, dar nu derivă din ea în mod necesar. Doar pictează acțiunea cu culorile sale infracționale.
La polul opus, mens rea îmbracă forma unor numeroase procese intelective și volitive. Cel mai mare nivel este exprimat de cunoștință, fiind acompaniată de cele mai multe ori de o intenție[11]. Nivelele joase îmbracă forma unor neglijențe (o persoană rezonabilă ar fi putut sau ar fi trebuit să cunoască ceva)[12].
În același registru, trebuie avut în vedere că de esența laturii subiective analizate este faptul că accentul cade pe factorul intelectiv-conștință, respectiv factorul volitiv-voință, aspect întărit de formularea legislatorului din cuprinsul art. 16 C. pen., de pildă, când se face vorbire de intenția directă: „Fapta este săvârșită cu intenție când făptuitorul prevede rezultatul faptei sale (factorul intelectiv-conștință), urmărind producerea lui (factorul volitiv-voință) prin săvârșirea acelei fapte”.
Astfel, concluzionând sub acest punct, atât timp cât sunt întrunite cele două elemente ale răspunderii penale, responsabilitatea poate fi angajată.
3. Răspunderea penală a AI. Analiză
În contextul coexistenței agenților umani cu cei artificiali, prinde contur întrebarea legitimă: cine răspunde legal dacă un robot (complet automatizat, care operează cu, și de ce nu, chiar fără implicarea directă a agentului uman) provoacă pagube, violențe, sau chiar omucidere? În acest sens, putem aminti spețe reale în care un sistem AI a dat dovadă de conduită infracţională. De pildă, în 1981, un japonez de 37 de ani, care muncea în sfera motorcycle, a fost ucis de un robot care lucra aproape de el[13]. Mai mult, un robot a ucis un tehnician dintr-o fabrică de mașini într-un accident cu nuanțe înfricoșătoare ale unui film științifico-fantastic[14].
Cu toate că această problemă a fost abordată în trecut[15], în contextul actual se impune o atenție mult mai sporită în vederea unei examinări complexe a problemei. Inexistența unor reglementări legale în materie, face ca problematica răspunderii penale a AI să rămână netranșată. Putem înțelege această „sfială”, care rezidă și din natura complexă a mașinăriilor inteligente și a persoanelor multiple implicate în procesul „insuflării de viaţă” a acestora, însă nu o încurajăm.
Pe aceeași linie de idei, dacă o infracțiune este săvârșită de o persoană deficientă mintal sau chiar un animal, atunci făptuitorul este considerat a fi un agent inocent pentru că îi lipsește capacitatea mintală, condiție sine qva non în formarea elementului mens rea. Să nu uităm că sub imperiul art. 15 C. pen., ne este relevat faptul că „infracțiunea este fapta prevăzută de legea penală, săvârșită cu vinovăție, nejustificată și imputabilă persoanei care a săvârșit-o, iar infracțiunea este singurul temei al răspunderii penale”. Mai mult, legiuitorul accentuează că „fapta constituie infracțiune numai dacă a fost săvârșită cu forma de vinovăție cerută de legea penală”. Astfel, se consacră principiului nulla poena sine culpa, consecința fiind că răspunderea penală nu poate fi decât subiectivă. Răspunderea penală subiectivă implică, așa cum am amintit și mai sus, pe lângă o manifestare umană exterioară, existența vinovăției. Totuși, dacă agentul nevinovat a fost instruit de o altă persoană, de exemplu, proprietarul unui câine a instruit câinele să atace pe cineva, atunci instructorul este tras la răspundere penală.
S-ar putea pune problema, pe bună dreptate, dacă altcineva răspunde penal pentru faptele comise de AI (ex. programatorul), nu ar contraveni principiului personalității răspunderii penale? Avându-se în vedere că, sub acest principiu, răspunderea poate interveni doar pentru fapta proprie, nicidecum pentru fapta altuia.
Cu toate acestea, demn este de menționat că dreptul penal, de-a lungul evoluției sale, a cunoscut și forme ale răspunderii penale colective, cum ar fi dușegubina din Evul Mediu[16]. Totodată, în dreptul persoanei juridice doctrina subliniază incompatibilitatea acestui principiu al răspunderii personale[17], subliniindu-se că, în ceea ce privește persoana juridică (care este, în esență, o abstractizare, nu o întruchipare materială), se poate discuta de o „diluare a caracterului personal” al răspunderii[18]. De ce în dreptul entităților AI nu am putea avea aceeași optică?
DOWNLOAD FULL ARTICLE
[1] Gabriel Hallevy, The Criminal Liability of Artificial Intelligence Entities – from Science Fiction to Legal Social Control, The University of Akron, March 2016, p. 175.
[2] Consiliul European, Reuniunea Consiliului European (19 Octombrie 2017) – Concluzie EUCO 14/17, 2017, p. 8 disponibil la https://www.consilium.europa.eu/media/21620/19-euco-final-conclusions-en.pdf?fbclid=IwAR1iai5AHKxkcA_slLWoEvAaRnWWN16m2JjRF7kCjide6XSojcJjyhg6Lc4 [accesat 30.03.2022].
[3] David Lyons, Open Texture and the Possibility of Legal Interpretation, 18 Law PHIL., 1999, pp. 297-309.
[4] Pedro Miguel Freitas, Francisco Andrade, Paulo Novais, Criminal Liability of Autonomous Agents: from the unthinkable to the plausible, Law School, Universidade do Minho, Braga, Portugal, 2013, p. 149.
[5] Ibidem.
[6] Laura Maria Stănilă, Inteligența artificială. Dreptul penal și sistemul de justiție penală: amintiri despre viitor, Ed. Universul Juridic, 2020, p. 104.
[7] Vintilă Dongoroz ș.a., Explicații teoretice ale Codului penal român, vol. I, Partea generală, Ediția Academiei, București, 1969, p.19.
[8] Joshua Dressler, Cases and Materials on Criminal Law, American Casebook Series, 2007, p. 126.
[9] Laura Maria Stănilă, Drept penal. Partea generală II, Ed. Universul Juridic, 2019, p. 74.
[10] Walter Harrison Hitchler, The Physical Element of Crime, DICK. L. REV. 95, 1934.
[11] Rollin M. Perkins, „Knowledge” as a Mens Rea Requirement, 29 HASTINGS L.J., 1978, p. 953.
[12] Jerome Hall, Negligent Behaviour Should Be Excluded from Penal Liability, 63 COLUM. L. REV., 1963, p. 632.
[13] Yueh-Hsuan Weng et.al., Toward the Human-Robot Co-Existence Society: On Safety Intelligence for Next Generation Robots, International Journal of Society and Robot, 2009, p. 273.
[14] Colin Fernandez, Robot kills factory worker after picking him up and crushing him against a metal plate at Volkswagen plant in Germany, DAILY MAIL, Jul. 1st, 2015, 22.44 BST, disponibil la https://www.dailymail.co.uk/news/article-3146547/Robot-kills-man-Volkswagen-plant-Germany.html [accesat 24.03.2022].
[15] Willick, M., Artificial Intelligence: Some Legal Approaches and Implications, AI Magazine, 1983, 4(2), p.5; Karnow, C.E.A. Liability for Distributed Artificial Intelligences, Berkeley Technology Law Journal, 1996, 11(1), pp. 147–204.
[16] I. Tanoviceanu, Tratat de drept și procedură penală, vol. III, Tipografia Curierul Judiciar, București, 1925, pp. 115-133.
[17] Laura Maria Stănilă, Drept penal. Partea generală II, Ed. Universul Juridic, București, 2019, p. 80.
[18] V. Pașca, Drept penal. Partea generală, ediția a III-a, Ed. Universul Juridic, București, 2014, p. 35.
Arhive
- martie 2024
- februarie 2024
- ianuarie 2024
- decembrie 2023
- noiembrie 2023
- octombrie 2023
- septembrie 2023
- august 2023
- iulie 2023
- iunie 2023
- mai 2023
- aprilie 2023
- martie 2023
- februarie 2023
- ianuarie 2023
- decembrie 2022
- noiembrie 2022
- octombrie 2022
- septembrie 2022
- august 2022
- iulie 2022
- iunie 2022
- mai 2022
- aprilie 2022
- martie 2022
- februarie 2022
- ianuarie 2022
- decembrie 2021
- noiembrie 2021
- octombrie 2021
- septembrie 2021
- august 2021
- iulie 2021
- iunie 2021
- mai 2021
- aprilie 2021
- martie 2021
- februarie 2021
- ianuarie 2021
- decembrie 2020
- noiembrie 2020
- octombrie 2020
- septembrie 2020
- august 2020
- iulie 2020
- iunie 2020
- mai 2020
- aprilie 2020
- martie 2020
- februarie 2020
- ianuarie 2020
- decembrie 2019
- noiembrie 2019
- octombrie 2019
- septembrie 2019
- august 2019
- iulie 2019
- iunie 2019
- mai 2019
- aprilie 2019
- martie 2019
- februarie 2019
- ianuarie 2019
- decembrie 2018
- noiembrie 2018
- octombrie 2018
- septembrie 2018
- august 2018
- iulie 2018
- iunie 2018
- mai 2018
- aprilie 2018
- martie 2018
- februarie 2018
- ianuarie 2018
- decembrie 2017
- noiembrie 2017
- octombrie 2017
- septembrie 2017
- august 2017
- iulie 2017
- iunie 2017
- mai 2017
- aprilie 2017
- martie 2017
- februarie 2017
- ianuarie 2017
- decembrie 2016
- noiembrie 2016
- octombrie 2016
- septembrie 2016
- august 2016
- iulie 2016
- iunie 2016
- mai 2016
- aprilie 2016
- martie 2016
- februarie 2016
- ianuarie 2016
- decembrie 2015
- noiembrie 2015
- octombrie 2015
- septembrie 2015
- august 2015
- iulie 2015
- iunie 2015
- mai 2015
- aprilie 2015
- martie 2015
- februarie 2015
- ianuarie 2015
Calendar
L | Ma | Mi | J | V | S | D |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Lasă un răspuns
Trebuie să fii autentificat pentru a publica un comentariu.