Machina sapiens. Înspre o răspundere penală exclusivă?
Daniel-Cosmin Sporea - iulie 4, 20223.1. Posibile modele de atribuire a răspunderii AI
Vom staționa, în cele ce urmează, asupra unor modele de răspundere penală a AI. Acestea sunt învederate pentru a prezenta o imagine de ansamblu asupra perspectivelor propuse de doctrina internațională, utile analizei noastre. Modelele de răspundere care urmează a fi analizate se vor concentra pe situațiile în care (3.1.1.) AI acționează ca un agent inocent, (3.1.2.) agent semi-inocent și (3.1.3.) total independent, iar, în fine, vom aborda (3.1.4.) răspunderea obiectivă.
3.1.1. AI – agent inocent
Sub acest model, entitatea AI nu are niciun atribut uman. Astfel, în această primă situație posibilă, entitatea AI este presupusă a fi nevinovată întrucât ia forma unui agent care operează conform instrucțiunilor utilizatorului/programatorului. În acest caz, răspunderea penală este angajată din cauza programării intenționate în vederea săvârșirii infracțiunii. De pildă, un programator proiectează software-ul unui robot. El îl plasează în mod intenționat în fața casei vecinului său pentru a-i incendia casa. Robotul a comis fapta antisocială, dar programatorul este considerat a fi făptuitorul[19]. Ne putem imagina, de altfel, o ipoteză în care utilizatorul achiziționează un robot și instruiește robotul să atace orice terță persoană. Aici, robotul nu-și aplică inteligența și experiența, ci pur și simplu urmează niște îndrumări. În primul caz, numai producătorul ar fi răspunzător. În al doilea caz, doar utilizatorul final ar fi răspunzător, deoarece robotul este un simplu intermediar inocent. Un alt exemplu de școală clasic, sub acest model de răspundere, îl poate constitui persoana care se folosește de un animal sau de o persoană bolnavă mintal, fără discernământ, pentru a comite infracțiunea.
Acest model însă prezintă neajunsuri. În acest sens, putem aminti de sisteme AI avansate, care în fapt nu mai operează în paza unei programări prealabile, ci în baza cunoștințelor și experiențelor acumulate și stocate în rețelele neuronale. Doctrina[20] propune un alt scenariu ilustrativ, acela în care un software scrie alt software, deci un sistem AI creat de un alt sistem AI. În acest ultim exemplu, practic prezența agentului uman lipsește.
Astfel, utilitatea acestui model își rezervă importanța în momentul în care discutăm despre un programator/utilizator care instrumentează AI în vederea comiterii de infracțiuni, fără a uza de capacitățile avansate ale AI. Programatorul, utilizatorul, dar și ceilalți agenți implicați pot răspunde penal pentru infracțiunea comisă, AI rămânând la stadiul de instrument/mijloc de comitere a infracțiunii însă, așa cum s-a mai exprimat în doctrină[21] anterior.
3.1.2. AI – agent semi-inocent
În acest context, situația premisă se bazează pe previzibilitatea producătorului/programatorului sau utilizatorului final cu privire la caracterul potențial al delictului[22]. În această situație particulară, producătorul și/sau utilizatorul lucrează îndeaproape cu entitatea AI, deși nu au intenționat infracțiunea respectivă. Într-un astfel de caz, răspunderea penală poate prinde contur ca o consecință a neglijenței sau imprudenței producătorului în programarea entității AI, ca o consecința naturală si probabilă.
În cadrul acestui model, ceea ce interesează este faptul că programatorul/utilizatorul trebuie să manifeste la nivel subiectiv acele procese psihice specifice culpei. Diligența, deci, este de esența acestui model. O persoană rezonabilă ar fi putut anticipa rezultatul dăunător al faptei, deoarece fapta antisocială comisă este o consecință firească, natural probabilă, a comportamentului persoanei respective[23].
Dacă însă entitatea AI a acționat pe baza propriilor experiențe, decizii, deci prin voință proprie, vom vorbi de o răspundere penală antrenată exclusiv în dreptul entității AI în cauză, dar ținând seama și de personalitatea electronică a acesteia, consacrată într-un cadru legislativ exhaustiv și bine conturat. Tipul acesta de discuție nu se află în stadiul imaginar, întrucât în 2017, Parlamentul European a înaintat un raport care punea în discuție recunoașterea personalității juridice a roboților – ca „persoane electronice”[24].
Într-un exemplu de școală care ne va ajuta să înțelegem justificarea unui astfel de model al răspunderii penale a AI, X cumpără un anume robot și îi cere să incendieze un imobil „B”. În încercarea de a incendia imobilul „B”, robotul de asemenea, incendiază casa imediat vecină „C”, aflată la cca 10m de imobilul „B”, în care se află un cuplu, cel din urmă pierzându-și viața. Deși A nu intenționa să incendieze imobilul „C” sau să ucidă pe cineva, se poate susține că astfel de rezultate sunt naturale și probabile, ca o consecință a faptei sale pe care ar fi putut să o prevadă în mod rezonabil. Astfel, discutăm despre o neglijență imputabilă în sarcina lui X, care se traduce în omiterea cunoașterii rezultatelor probabile. X ar putea răspunde, astfel, pentru distrugere calificată.
Însă, și sub acest model, agentul AI nu va putea fi tras la răspundere penală dacă a acționat ca un agent inocent. Aici, observăm o similaritate între acest model și cel prezentat anterior. Dacă însă agentul AI nu a acționat inocent, pe bună dreptate va fi angajată răspunderea sa, pe lângă răspunderea penală a programatorului/utilizatorului.
3.1.3. AI – entitate autonomă
Acest model, după cum subliniază unii autori[25], este unul futurist. Astfel, modelul analizat necesită întrunirea concomitentă a actus reus și mens rea la un sistem AI. Este relativ simplu să atribuim actus reus unui sistem AI. Dacă un sistem AI a condus la ceva ce are ca și consecință un act penal sau nu întreprinde o acțiune atunci când există o obligație legală sau convențională de a de a acționa (de pildă, poziția de garant de sub imperiul art. 17 C. pen.), elementul material se produce. Pe de altă parte, alocarea unei mens rea este destul de dificilă.
La nivel subiectiv, când vorbim de vinovăție, indubitabil facem trimitere la un act intelectiv, de conștiință, adică la o aptitudine de a înțelege valoarea juridică și consecințele unor fapte. Totodată, avem în vedere și un act de voință, sub impulsul căreia este realizată fapta, deci la o aptitudine de a putea dirija în mod voluntar acțiunile, pentru a se atinge rezultatul dorit prin acesta.
Dacă un sistem AI a fost programat ab initio să aibă un scop ilegal sau chiar să întreprindă acțiuni în vederea acestui scop, ne raliem opiniei doctrinare[26] care susține că, într-o astfel de împrejurare, AI ar putea acționa cu intenție, respectiv intenție specifică (calificată prin scop).
Bineînțeles, probleme ar putea exista într-un context în care avem infracțiuni specifice de rasism, incitare la ură etc. În aceste situații, la nivel subiectiv, avem nevoie de un mobil specific, de esența mobilului fiind sentimentele și emoțiile[27].
Aceste probleme care trebuie adresate nu se mai încadrează la capitolul imaginație, întrucât în viitor entitățile AI ar putea funcționa într-o manieră total independentă, complet autonomă. Astfel, entitatea AI va avea capacități cognitive, adică va știi să aleagă între soluții alternative în vederea rezolvării unei probleme. Dacă AI va comite o infracțiune, sub acest model, nimic nu va împiedica instalarea răspunderii penale. Componenta mens rea ar putea să se concentreze, sub acest scenariu, pe ideea de conștiință electronică, o creație pe care ingenios și inovator doctrina o propune[28].
3.1.4. Răspundere obiectivă
Când vorbim de răspundere penală a AI, probabil cel mai ofertant model îl constituie cel focusat pe o răspundere obiectivă. Cum am menționat și anterior, lipsa elementului subiectiv în dreptul entităților AI reflectă că acestea nu au conștiință, iar din punct de vedere moral, nu pot satisface acea aptitudine de a avea reprezentarea concretă, exacta și precisă a consecințelor ce derive din acțiunile pe care le întreprind. Sub această formă de răspundere, ceea ce va antrena sancționarea penală a AI va fi „comportamentul’’ entității[29]. De esența răspunderii obiective este faptul că aceasta presupune ca un subiect de drept (fie el colectiv, fie individual) să fie sancționat pentru faptele, acțiunile și chiar inacțiunile care au produs rezultate prejudiciabile și/sau dăunătoare altor persoane.
4. Drept la apărare al entităților AI?
Dacă entitatea AI este afectată de un virus electronic, s-ar putea prevala de cauzele de neimputabilitate aferente constrângerii sau intoxicației? Intoxicația[30], starea de necesitate[31], legitima apărare[32] sunt câteva instrumente general disponibile justițiabililor umani în temeiul dreptului penal. Apreciem că apărări similare agenților umani pot fi puse la dispoziția entităților AI, în acest sens, o reglementare independentă ar fi necesară. Acest lucru este întărit și de faptul că, în legea penală română, când legislatorul aduce în discuție fie cauzele justificative, fie pe cele de neimputabilitate, face referire la „persoană”. De pildă, art. 19 C. pen. stipulează că „Este în legitimă apărare persoana care săvârşeşte fapta pentru a înlătura un atac material, direct, imediat şi injust, care pune în pericol persoana sa, a altuia, drepturile acestora sau un interes general, dacă apărarea este proporţională cu gravitatea atacului”. În același registru este și art. 29 C. pen., care statuează că „Nu este imputabilă fapta prevăzută de legea penală săvârşită de persoana care, în momentul comiterii acesteia, nu putea să-şi dea seama de acţiunile sau inacţiunile sale ori nu putea să le controleze, din cauza intoxicării involuntare cu alcool sau cu alte substanţe psihoactive”. O astfel de reglementare autonomă în dreptul entităților AI va trebui să existe, întrucât, in concreto, luând ca și exemplu influența pe care o poate avea intoxicația asupra oamenilor, un malware sau un virus pot avea un efect similar asupra unui robot. Astfel, apărările aplicabile oamenilor vor trebui să fie extinse și la entitățile AI. Pe de altă parte, luând în considerare Directiva 2016/343 a Parlamentului European, care într-un mod magistral conturează și discută prezumția de nevinovăție ca și component esențială a unui stat de drept, prezumție de care se bucură orice agent uman, se conturează întrebarea legitimă: poate o entitate AI să se prevaleze de o astfel de prezumție? Greu de statuat un răspuns, în contextual în care, chiar și în dreptul agenților umani, conceptul de prezumție de nevinovăție nu este trasat limpede, având un caracter relativ[33].
5. Pedepse pentru AI?
Doctrina definește pedeapsa ca fiind „o măsură de constrângere și un mijloc de reeducare prevăzută de lege, aplicată de instanța judecătorească infractorului în scopul prevenirii săvârșirii de infracțiuni”[34] sau, cu alte cuvinte „acea acțiune prejudiciabilă, îndreptată împotriva unei persoane și aplicată de o autoritate, pentru că acea persoană este considerată vinovată de o ofensă (atingere) adusă normelor juridice penale, cu condiția ca o astfel de autoritate (de ofensă) să fi fost anterior tipizată în normă”[35]. Astfel, pedeapsa se aplică, actualmente, doar față de o persoană care a fost dovedită că a acționat cu vinovăție[36]. Cum rămâne însă cu AI?
În speța Statele Unite v. Allegheny Bottling Company[37], s-a statuat de către tribunalul Statelor Unite că, dacă pârâtul (care era în fapt o companie) ar fi fost un agent uman, pedeapsa adecvată pentru faptele comise ar fi fost o pedeapsă privativă de libertate. Problema esențială a fost însă, cum aplici pedeapsa închisorii unei companii? Ca principiu general, instanța a reținut că „nu se așteaptă ca o companie să posede conștiință, dar se așteaptă să fie etică și să se supună legii”[38]. A continuat instanța, menționând că „[a]ceastă instanță va judeca compania în același mod în care ar fi fost judecat un agent uman care ar fi încălcat în același mod legea”[39].
Astfel, în speța menționată, corporația a fost condamnată la 3 ani de închisoare, respectiv o amendă de 1 milion de dolari. Se impun câteva clarificări.
În primul rând, instanța a contemplat asupra ce înțelesuri are, în esență, închisoarea, acceptând, în linii mari, că aceasta ar fi o restrângere a unei persoane contrar voii sale. Concluzia instanței a fost clară și concisă. Cheia privării de libertate a corporațiilor este aceasta: închisoarea înseamnă restrângere, iar restrângerea este o privare de libertate.
În al doilea rând, instanța a focusat atenția asupra ce ar însemna pedeapsa închisorii pentru o companie, și a concluzionat că pedeapsa închisorii pentru o companie s-ar traduce într-o imobilizare, respectiv o restrângere a acesteia.
Pedeapsa cu moartea (încă aplicabilă în alte state precum China, Japonia, Coreea de Sud, nu România, fiind abolită prin Decretul-Lege nr. 6/1990[40]), închisoarea (art. 60 C. pen.) și amenda (art. 61 C. pen.) sunt câteva pedepse comune în sfera dreptului penal. Considerăm că se pot aplica pedepse similare cu anumite modificări către entitățile AI. De pildă, ștergerea permanentă a software-ului AI ar avea un efect analog cu pedeapsa capitală pentru oameni. De asemenea, deconectarea temporară a software-ului ar putea fi echivalată cu închisoarea aplicată infractorilor umani. De altfel, munca în folosul comunității poate fi o pedeapsă pentru entitatea AI. Doctrina[41] a sugerat și alte pedepse adaptabile agenților AI, precum: blocarea temporară a funcționării sistemului, ștergerea/rescrierea unor coduri, reformarea sistemului, ori deconectarea definitivă a sistemului. Bineînțeles, susținem și în acest punct, necesitatea unei reglementări autonome, distincte de cele pe care le avem în prezent. Doctrina internațională[42] susține cu tărie atribuirea răspunderii penale AI, mizând pe faptul că agenții AI, odată ce vor fi pedepsiți, victimelor li se va crea o stare de satisfacție psihologică, astfel încât vor simți că, caracterul retributiv al pedepsei penale și-a produs efectul. Totodată, după cum Profesorul Dongoroz reiterează în Tratatul său de la 1939, trebuie să avem în vedere, chiar și în acest context al AI, că responsabilitatea penală ca răspundere juridică presupune îndatorirea legală de a suporta consecințele unui act sau fapt juridic[43], indiferent, susținem noi, de faptul că vorbim de entități AI sau agenți umani. Societatea evoluează, iar cadrul normativ care reglementează răspunderea penală trebuie să evolueze și el, inclusiv pe palier sancționator.
6. Concluzie
Timpurile moderne impun adoptarea unor măsuri moderne, ajustate la nevoile și problemele cu care se confruntă societatea. Dezvoltarea rapidă a AI necesită soluții legale actuale pentru protejarea societății de posibile pericole inerente tehnologiilor, mai ales din optică penală, punându-se accentul și pe faptul că dreptul penal are o funcție socială foarte importantă, de a menține ordinea socială în beneficiul și bunăstarea societății. Acea ordine poate fi amenințată de persoane fizice, persoane juridice, și, susținem noi, chiar de entități AI.
De sute de ani, dreptul a exclus posibilitatea ca persoanele juridice să fie subiecți de drept, mizându-se pe principiul cu valențe din dreptul roman societas delinquere non potest[44]. În 1922, pentru prima dată, este condamnată o persoană juridică (The United Mine Workers of America v. The Coronado Coal Co[45]). Inevitabil. Persoana juridică a fost și este prezentă în societate, implicându-se activ în diverse activități, inclusiv comiterea de infracțiuni. Persoana juridică nu are nici suflet, nici corp material, și totuși, în prezent vorbim de o răspundere penală a persoanei juridice într-un cadru legal bine și atent conturat. A funcționat. Și continuă să funcționeze. De ce persoanele juridice ar fi diferite de AI? Mașinăriile inteligente sunt prezente tot mai mult în viața socială, la fel ca și persoana juridică. Modele pentru a reglementa răspunderea penală a AI există, la fel pot fi imaginate și sisteme sancționatoare. De ce altceva e nevoie?
[19] Ankit Kumar Padhy, Amit Kumar Padhy, Criminal Liability of the Artificial Inteligence Entities, Nirma University Law Journal: Volume-8, Issue-2, 2019, p. 8.
[20] Laura Maria Stănilă, Inteligența artificială. Dreptul penal și sistemul de justiție penală: amintiri despre viitor, Ed. Universul Juridic, București, 2020, p. 114.
[21] Ibidem.
[22] Gabriel Hallevy, The Criminal Liability of Artificial Intelligence Entities: From Science Fiction to Legal Social Control, 4 AKRON INTELL. PROP. J. 179, 2010, p. 182; Gabriel Hallevy, Dangerous Robots – Artificial Intelligence vs. Human Intelligence, 2018, pp. 10-32, disponibil la SSRN https://ssrn.com/abstract=3121905 [accesat 30.03.2021].
[23] Laura Maria Stănilă, Inteligența artificială. Dreptul penal și sistemul de justiție penală: amintiri despre viitor, Ed. Universul Juridic, București, 2020, p. 116.
[24] Open Letter to the European Commission Artificial Intelligence And Robotics, 2018, disponibil la: www.robotics-openletter.eu/ [accesat 15.06.2022].
[25] Yueh-Hsuan Weng et al., Toward the Human-Robot Co-Existence Society: On Safety Intelligence for Next Generation Robots, International Journal of Society and Robot, 2009, p. 19.
[26] Laura Maria Stănilă, Inteligența artificială. Dreptul penal și sistemul de justiție penală: amintiri despre viitor, Ed. Universul Juridic, București, 2020, p. 119.
[27] Gabriel Hallevy, The Criminal Liability of Artificial Intelligence Entities: From Science Fiction to Legal Social Control, 4 AKRON INTELL. PROP. J. 179, 2010, p. 26.
[28] Laura Maria Stănilă, Inteligența artificială. Dreptul penal și sistemul de justiție penală: amintiri despre viitor, Ed. Universul Juridic, București, 2020, p. 104.
[29] Ibidem, p. 105.
[30] Art. 29 C. pen.
[31] Art. 20 C. pen.
[32] Art. 19 C. pen.
[33] Radu Chiriță, Dreptul la un proces echitabil, Ed. Universul Juridic, București, 2008, p. 290.
[34] C. Bulai, B.N. Bulai, Manual de drept penal. Partea generală, Ed. Universul Juridic, București, 2007, p. 291.
[35] C. Rotaru, Fundamentul pedepsei. Teorii Moderne, Ed. C.H. Beck, București, 2006, p. 31.
[36] Laura Maria Stănilă, Drept penal. Partea generală II, Ed. Universul Juridic, București, 2019, p. 147.
[37] United States v. Allegheny Bottling Company, 695 F. Supp. 856, 1988.
[38] Ibidem, p. 858.
[39] Ibidem.
[40] Publicat în M. Of. Nr. 4 din 8 ianuarie 1990.
[41] Laura Maria Stănilă, Inteligența artificială. Dreptul penal și sistemul de justiție penală: amintiri despre viitor, Ed. Universul Juridic, 2020, p. 107.
[42] Christina Mulligan, Revenge Against Robots, 69 S.C. L. REV., 2018, pp. 579-580; David Lewis, The Punishment That Leaves Something to Chance, 18 PHIL. & PUB. AFF., 1989, pp. 53-54.
[43] Vintilă Dongoroz, Drept penal, reeditare ediție din 1939, Asociația Română de Științe Penale, București, 2000, p. 307.
[44] William Searle Holdsworth, English Corporation Law in the 16th and 17th Centuries, 31 YALE L.J., 1922, p. 382.
[45] Disponibil la: https://supreme.justia.com/cases/federal/us/268/295/ [accesat 11.06.2022].
Arhive
- martie 2024
- februarie 2024
- ianuarie 2024
- decembrie 2023
- noiembrie 2023
- octombrie 2023
- septembrie 2023
- august 2023
- iulie 2023
- iunie 2023
- mai 2023
- aprilie 2023
- martie 2023
- februarie 2023
- ianuarie 2023
- decembrie 2022
- noiembrie 2022
- octombrie 2022
- septembrie 2022
- august 2022
- iulie 2022
- iunie 2022
- mai 2022
- aprilie 2022
- martie 2022
- februarie 2022
- ianuarie 2022
- decembrie 2021
- noiembrie 2021
- octombrie 2021
- septembrie 2021
- august 2021
- iulie 2021
- iunie 2021
- mai 2021
- aprilie 2021
- martie 2021
- februarie 2021
- ianuarie 2021
- decembrie 2020
- noiembrie 2020
- octombrie 2020
- septembrie 2020
- august 2020
- iulie 2020
- iunie 2020
- mai 2020
- aprilie 2020
- martie 2020
- februarie 2020
- ianuarie 2020
- decembrie 2019
- noiembrie 2019
- octombrie 2019
- septembrie 2019
- august 2019
- iulie 2019
- iunie 2019
- mai 2019
- aprilie 2019
- martie 2019
- februarie 2019
- ianuarie 2019
- decembrie 2018
- noiembrie 2018
- octombrie 2018
- septembrie 2018
- august 2018
- iulie 2018
- iunie 2018
- mai 2018
- aprilie 2018
- martie 2018
- februarie 2018
- ianuarie 2018
- decembrie 2017
- noiembrie 2017
- octombrie 2017
- septembrie 2017
- august 2017
- iulie 2017
- iunie 2017
- mai 2017
- aprilie 2017
- martie 2017
- februarie 2017
- ianuarie 2017
- decembrie 2016
- noiembrie 2016
- octombrie 2016
- septembrie 2016
- august 2016
- iulie 2016
- iunie 2016
- mai 2016
- aprilie 2016
- martie 2016
- februarie 2016
- ianuarie 2016
- decembrie 2015
- noiembrie 2015
- octombrie 2015
- septembrie 2015
- august 2015
- iulie 2015
- iunie 2015
- mai 2015
- aprilie 2015
- martie 2015
- februarie 2015
- ianuarie 2015
Calendar
L | Ma | Mi | J | V | S | D |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Lasă un răspuns
Trebuie să fii autentificat pentru a publica un comentariu.