Răspunderea penală în cazul falsificării bancnotelor prin intermediul tehnologiei deepfake ca formă a inteligenței artificiale
Eduard Constantin - februarie 9, 20261. Introducere
Abilitatea mașinilor de calcul de a gândi și de a acționa asemenea omului a fost cercetată încă din anul 1943, când Warren McCullough și Walter Pitts au propus un model matematic de creare a unei rețele neuronale. Însă, primul autor care a abordat explicit problema capacității de a gândi a unei mașini a fost Alan Turing, în lucrarea sa din anul 1950, intitulată „Computing Machinery and intelligence” („Mașini de calcul și inteligență”). Termenul de „inteligență artificială” („artificial intelligence” – AI) a fost conceptualizat în anul 1956 de către John McCarthy, ca disciplină ce viza studiul „mașinilor gânditoare” („thinking machines”); ulterior, în anul 1958, acesta a creat un program specific pentru inteligența artificială și a propus un sistem AI bazat pe învățarea din experiență asemenea oamenilor[1]. Prin urmare, conceptul de „inteligență artificială” (IA) nu este unul nou, dezvoltându-se de-a lungul anilor în mod constant, pe fondul creșterii puterii de calcul, apariției unor algoritmi noi, dar și a stocării unui volum ridicat de informații.
În prezent, inteligența artificială este un domeniu prioritar pentru Uniunea Europeană și statele membre, dar și pentru alte state ale lumii, fiind considerată ca un factor de influență major pentru toate sectoarele de activitate ale societății ce necesită o reglementare strictă, în scopul limitării efectelor sale negative și încurajării unei utilizări favorabile oamenilor. Din perspectiva criminalității, inteligența artificială poate fi folosită ca instrument de săvârșire a infracțiunii (de pildă, tehnologia DeepFake ori alte programe adaptate în scop criminal) sau poate deveni chiar subiect activ al infracțiunii (roboții cu programe de inteligență artificială încorporate). În cazul falsificării bancnotelor, folosirea tehnologiei IA, cum este tehnologia DeepFake, ridică unele probleme privind încadrarea juridică și subiectul răspunderii penale, aspecte care vor fi lămurite în cele ce urmează.
2. Noțiuni terminologice
Inteligența artificială nu are o definiție general acceptată, care să acopere toate aspectele pe care le implică, având în vedere evoluția rapidă a conceptului și multitudinea formelor sale. Oxford English Dictionary definește inteligența artificială ca fiind „un software utilizat pentru a îndeplini sarcini sau a genera rezultate, care necesită în mod normal inteligența umană, prin învățarea automată a unui volum mare de date”[2]. În Britannica Dictionary, inteligența artificială este definită ca „abilitatea unei mașini de a imita comportamentul unei ființe inteligente”[3]. În literatura de specialitate, s-a arătat că inteligența artificială este „sistemul informatic cu abilitatea de a percepe informații din mediul înconjurător, de a le interpreta, de a învăța din respectivele informații și de a întreprinde acțiuni pentru a-și crește șansele de a îndeplini cu succes obiectivele propuse”[4]. De asemenea, s-a mai arătat că inteligența artificială este „o ramură mai vastă a științei computerelor, preocupată de construirea de mașini inteligente capabile să îndeplinească sarcini care necesită de obicei inteligență umană”[5].
Potrivit art. 3 pct. 1 din Regulamentul (UE) 2024/1689[6], prin sistem de IA se înțelege „un sistem bazat pe o mașină care este conceput să funcționeze cu diferite niveluri de autonomie și care poate prezenta adaptabilitate după implementare, și care, urmărind obiective explicite sau implicite, deduce, din datele de intrare pe care le primește, modul de generare a unor rezultate precum previziuni, conținut, recomandări sau decizii care pot influența mediile fizice sau virtuale”. În accepțiunea sa principală, DeepFake este o tehnologie IA utilizată pentru manipularea conținutului și crearea unor percepții înșelătoare publicului țintă, prin suprapunerea unor materiale video sau vizuale ori prin crearea unor materiale audio-video sau vizuale noi, care prezintă aspecte nereale, fiind de natură să producă prejudicii persoanelor reprezentate în aceste materiale false sau persoanelor convinse de conținutul înșelător.
Conform art. 3 din Proiectul de Lege privind utilizarea responsabilă a tehnologiei în contextul fenomenului deepfake, în forma adoptată de Senat, prin termenul deepfake se înțelege „orice conținut falsificat de tip imagine, audio și/sau video realizat, de regulă, cu ajutorul inteligenței artificiale, a realității virtuale (RV), a realității augmentate (AR) sau altor mijloace, astfel încât să creeze aparența că o persoană a spus sau a făcut lucruri, pentru care nu și-a dat consimțământul, care în realitate nu au fost spuse sau făcute de acea persoană”[7]. Tehnologia DeepFake se fundamentează pe procesul de învățare automată (Machine Learning), respectiv pe învățarea profundă (Deep Learning), prin utilizarea Rețelelor Neuronale Adânci (DNN – Deep Neural Networks), ce contribuie la învățarea și recunoașterea caracteristicilor unor realități complexe din mediul înconjurător de către sistemul IA, fiind apte să creeze date noi cât mai apropiate de tiparul învățat.
Pentru producerea deepfake-urilor se folosește un tip specific de DNN, și anume Rețeaua Generativă Adversarială (GAN – Generative Adversarial Networks). Această rețea neuronală se caracterizează prin existența unor algoritmi cu funcții opuse – unul generează date false („generatorul”), iar celălalt le evaluează și le respinge până când se ajunge la un fals perfecționat, fidel modelului („discriminatorul”)[8]. Tehnologia DeepFake, ca mijloc de falsificare, poate fi folosită și pentru manipularea conținutului unor documente sau pentru crearea unor documente false, inclusiv a unor bancnote false de înaltă calitate, ce pot fi confundate foarte ușor cu originalul. Ca atare, prin intermediul inteligenței artificiale pot fi falsificate și înscrisuri de valoare, cum sunt bancnotele, prin realizarea unor variante grafice cât mai apropiate de cele autentice, care ulterior pot fi tipărite prin utilizarea unei imprimante. Pe de altă parte, inteligența artificială poate fi folosită și pentru combaterea falsificării de monedă prin producerea unor dispozitive inteligente de identificare a bancnotelor contrafăcute, bazate pe aceleași rețele neuronale de tip GAN, tehnologia fiind denumită DeepMoney; în acest caz, sistemul învață date model de contrafacere, fiind apt să identifice falsul[9].
3. Încadrarea juridică și regimul sancționator
A. Falsificarea de monedă, în sensul art. 310 C. pen., vizează atât monedele metalice cât și bancnotele („moneda de hârtie”), fiind necesar ca produsul falsificării să prezinte însușirile unei monede aflate în circulație sau care urmează a fi pusă în circulație, indiferent de naționalitatea emitentului. De regulă, monedele sunt confecționate din metal, hârtie sau polimer, având anumite elemente grafice și de siguranță care au rolul de a garanta autenticitatea lor. Ca atare, produsul falsificării nu poate avea decât o existență materială. Bancnotele pot fi falsificate prin alterare (modificarea materială a compoziției sau structurii) sau prin contrafacere (imitarea bancnotei autentice). Alterarea bancnotei se realizează, de obicei, în scopul creșterii valorii, prin ștergerea sau adăugarea unor cifre, iar contrafacerea, prin scanare și tipărire, fiind utilizate sistemele informatice. În contextul noilor evoluții tehnologice, bancnotele pot fi contrafăcute și prin intermediul tehnologiilor de inteligență artificială, așa cum este și tehnologia DeepFake.
Astfel, sunt introduse în sistem date informatice ce ilustrează modele de bancnote reale, iar algoritmii specifici tehnologiei DeepFake acționează prin crearea unui fals cât mai aproape de modelul învățat, prin generări și respingeri repetate a falsului; contribuția inteligenței artificiale se limitează însă numai la producerea unei imagini grafice cât mai fidele, rezultatul având numai o existență virtuală, intangibilă. După crearea falsului virtual, acesta poate fi tipărit prin utilizarea imprimantei, căpătând o formă materială. Deși contrafacerea bancnotei este săvârșită prin introducerea unor date informatice (modelul bancnotei autentice), rezultând date necorespunzătoare adevărului, totuși nu vom fi în prezența falsului informatic prevăzut de art. 325 C. pen., întrucât activitatea de falsificare se finalizează printr-un fals material, și nu printr-un fals virtual – imaginea digitală a bancnotei este tipărită, decupată și prelucrată, prin inserarea unor elemente de siguranță aparente. Obținerea imaginii bancnotei false prin intermediul inteligenței artificiale este numai o etapă în procesul de producere a falsului. În această ipoteză, falsul informatic este absorbit în infracțiunea de falsificare de monede, prevăzută de art. 310 C. pen. Așadar, contrafacerea unei bancnote prin utilizarea tehnologiei DeepFake trebuie încadrată în conținutul infracțiunii de falsificare de monede, și nu al infracțiunii de fals informatic.
B. În cazul persoanei fizice, falsificarea de monede în circumstanțele arătate este sancționată cu închisoarea de la 3 la 10 ani, cumulativ cu pedeapsa complementară a interzicerii exercitării drepturilor prevăzute de art. 66 alin. (1) C. pen., pe o perioadă între 1 și 5 ani. Dacă prin săvârșirea infracțiunii s-a urmărit un folos material, atunci se poate aplica și pedeapsa amenzii penale, pe lângă pedeapsa închisorii, în condițiile art. 62 C. pen. În cazul persoanei juridice, se aplică pedeapsa amenzii, la care se poate adăuga una sau mai multe pedepse complementare dintre cele prevăzute de art. 136 alin. (3) C. pen. Totodată, se poate lua măsura de siguranță a confiscării sistemului informatic folosit la săvârșirea infracțiunii de falsificare, în temeiul art. 112 alin. (1) lit. b) C. pen.
4. Subiectul răspunderii penale
Infracțiunile pot fi săvârșite cu sau de inteligența artificială. În cazul de față, inteligența artificială, respectiv tehnologia DeepFake, nu este decât un instrument de săvârșire a falsului, creat și utilizat de o ființă umană, în mod individual sau ca parte dintr-o colectivitate. Răspunderea penală se va angaja împotriva persoanei fizice sau juridice care a folosit programul de inteligență artificială în scopul de a falsifica bancnote. În prezent, nu se poate discuta de o răspundere penală a inteligenței artificiale, întrucât tehnologia nu a ajuns la acel nivel încât să confere autonomie deplină și conștiință sistemelor IA, care ar putea săvârși anumite fapte penale – sistemele IA sunt încă dirijate și controlate de factorul uman[10]. Totuși, statele trebuie să se pregătească de această eventualitate și să acționeze proactiv raportat la modul în care evoluează inteligența artificială din această perspectivă, prin armonizarea legislației cu noua realitate socială. În doctrină, s-a arătat că inteligența artificială poate dobândi personalitate juridică numai prin voința legiuitorului, ca în cazul colectivităților legale (instituții, corporații, societăți comerciale). Un sistem IA ar putea avea statutul de persoană electronică, fiind necesară o nouă reglementare a răspunderii penale, cu un sistem sancționator distinct, adaptat caracteristicilor unei astfel de entități[11].
Concluzii
Tehnologia DeepFake, ca formă a inteligenței artificiale, poate fi folosită atât în scopuri benefice societății, dar și în scopuri criminale, precum falsificarea de bancnote. Această tehnologie are la bază învățarea automată profundă (Deep Learning) și Rețeaua Generativă Adversarială (GAN), fiind folosită de către falsificatori ca instrument de concepere și perfecționare a falsului. Deși falsificarea de bancnote prin intermediul tehnologiei DeepFake presupune introducerea unor date informatice (modelul bancnotei reale), rezultând date necorespunzătoare realității, respectiv imaginea bancnotei false, fapta va fi încadrată la infracțiunea de falsificare de monede prevăzută de art. 310 C. pen., și nu la infracțiunea de fals informatic, prevăzută de art. 325 C. pen., întrucât activitatea de falsificare se finalizează prin tipărirea bancnotei false create de inteligența artificială, rezultând un produs material. Subiectul răspunderii penale nu poate fi decât persoana fizică sau juridică ce utilizează programul de inteligență artificială în scopul falsificării de bancnote, sistemul IA fiind, în acest caz, un mijloc de săvârșire a infracțiunii. Sistemele IA nu pot răspunde penal încă dacă săvârșesc o faptă penală, întrucât nu au autonomie totală și nu sunt capabile să înțeleagă consecințele acțiunilor efectuate, fiind influențate de intervenția umană. Autoritățile trebuie să ia din timp toate măsurile legislative și administrative pentru limitarea acțiunilor negative ce pot fi săvârșite de subiecții cu inteligență artificială, inclusiv în privința modului de acordare a personalității juridice și tragerii la răspundere penală.
Referințe bibliografice
1.Bularda Nicolae Claudiu, Manipularea conținutului prin tehnologia deepfake. Răspunderea penală și relația cu infracțiunile de fals informatic, violarea vieții private și înșelăciune, în Revista Penalmente Relevant Nr. 1/2023, disponibil online la https://www.ceeol. com/search/article-detail?id=1231410, accesat la 15 septembrie 2024.
2.Husti Georgian Marcel, Acţiunea, inacţiunea și legătura de cauzalitate în cazul inteligenţei artificiale, în Revista Themis nr. 1-2/2021, disponibil online la https://inm-lex.ro/revista-themis-nr-1-2-2021/, accesat la 15 septembrie 2024.
3.Stănilă Laura Maria, Inteligența artificială, dreptul penal și sistemul de justiție penală. Amintiri despre viitor, Editura Universul Juridic, București, 2020.
4.Toqeer Ali și colab., DeepMoney: counterfeit money detection using generative adversarial networks, în PeerJ Computer Science 5:e216, disponibil online la http://doi.org/ 10.7717/peerj-cs.216, accesat la 15 septembrie 2024.
5.Regulamentul (UE) 2024/1689 al Parlamentului European și al Consiliului din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială și de modificare a Regulamentelor (CE) nr. 300/2008, (UE) nr. 167/2013, (UE) nr. 168/2013, (UE) 2018/858, (UE) 2018/1139 și (UE) 2019/2144 și a Directivelor 2014/90/UE, (UE) 2016/797 și (UE) 2020/1828, disponibil online la http://data.europa.eu/eli/reg/2024/1689/oj, accesat la 15 septembrie 2024 (Jurnalul Oficial al Uniunii Europene, Seria L, 12 iulie 2024).
6.https://www.cdep.ro/pls/proiecte/upl_pck2015.proiect?idp=20853, accesat la 15 septembrie 2024.
7.https://www.oed.com/dictionary/artificialintelligencen?tab=meaning_and_use#3853155, accesat la 15 septembrie 2024.
8.https://www.britannica.com/dictionary/artificial-intelligence, accesat la 15 septembrie 2024.
DOWNLOAD FULL ARTICLE* Articol susținut în cadrul Conferinţei Naţionale de Drept Penal şi Procesual Penal – ediţia a 2-a, „Impactul inteligenţei artificiale în procesul penal”, 23 octombrie 2024.
[1] Laura Maria Stănilă, Inteligența artificială, dreptul penal și sistemul de justiție penală. Amintiri despre viitor, Editura Universul Juridic, București, 2020, p. 32.
[2] https://www.oed.com/dictionary/artificial-intelligence_n?tab=meaning_and_use#38531565, accesat la 15 septembrie 2024.
[3] https://www.britannica.com/dictionary/artificial-intelligence, accesat la 15 septembrie 2024.
[4] Georgian Marcel Husti, Acţiunea, inacţiunea și legătura de cauzalitate în cazul inteligenţei artificiale, în Revista Themis nr. 1-2/2021, p. 44, disponibil online la https://inm-lex.ro/revista-themis-nr-1-2-2021/, accesat la 15 septembrie 2024.
[5] Laura Maria Stănilă, op. cit., p. 36.
[6] Regulamentul (UE) 2024/1689 al Parlamentului European și al Consiliului din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială și de modificare a Regulamentelor (CE) nr. 300/2008, (UE) nr. 167/2013, (UE) nr. 168/2013, (UE) 2018/858, (UE) 2018/1139 și (UE) 2019/2144 și a Directivelor 2014/90/UE, (UE) 2016/797 și (UE) 2020/1828 (Regulamentul privind inteligența artificială), disponibil online la http://data.europa.eu/eli/reg/2024/1689/oj, accesat la 15 septembrie 2024 (Jurnalul Oficial al Uniunii Europene, Seria L, 12 iulie 2024).
[7] https://www.cdep.ro/pls/proiecte/upl_pck2015.proiect?idp=20853, accesat la 15 septembrie 2024.
[8] Nicolae Claudiu Bularda, Manipularea conținutului prin tehnologia deepfake. Răspunderea penală și relația cu infracțiunile de fals informatic, violarea vieții private și înșelăciune, în Revista Penalmente Relevant Nr. 1/2023, p. 64, disponibil online la https://www.ceeol.com/search/article-detail?id=1231410, accesat la 15 septembrie 2024.
[9] Ali Toqeer și colab., DeepMoney: counterfeit money detection using generative adversarial networks, în PeerJ Computer Science 5:e216, p. 2, disponibil online la http://doi.org/10.7717/peerj-cs.216, accesat la 15 septembrie 2024.
[10] Laura Maria Stănilă, op. cit., pp. 108-109.
[11] Idem, p. 86.
Arhive
- martie 2026
- februarie 2026
- ianuarie 2026
- decembrie 2025
- noiembrie 2025
- octombrie 2025
- septembrie 2025
- august 2025
- iulie 2025
- iunie 2025
- mai 2025
- aprilie 2025
- martie 2025
- februarie 2025
- ianuarie 2025
- decembrie 2024
- noiembrie 2024
- octombrie 2024
- septembrie 2024
- august 2024
- iulie 2024
- iunie 2024
- mai 2024
- aprilie 2024
- martie 2024
- februarie 2024
- ianuarie 2024
- decembrie 2023
- noiembrie 2023
- octombrie 2023
- septembrie 2023
- august 2023
- iulie 2023
- iunie 2023
- mai 2023
- aprilie 2023
- martie 2023
- februarie 2023
- ianuarie 2023
- decembrie 2022
- noiembrie 2022
- octombrie 2022
- septembrie 2022
- august 2022
- iulie 2022
- iunie 2022
- mai 2022
- aprilie 2022
- martie 2022
- februarie 2022
- ianuarie 2022
- Supliment 2021
- decembrie 2021
- noiembrie 2021
- octombrie 2021
- septembrie 2021
- august 2021
- iulie 2021
- iunie 2021
- mai 2021
- aprilie 2021
- martie 2021
- februarie 2021
- ianuarie 2021
- decembrie 2020
- noiembrie 2020
- octombrie 2020
- septembrie 2020
- august 2020
- iulie 2020
- iunie 2020
- mai 2020
- aprilie 2020
- martie 2020
- februarie 2020
- ianuarie 2020
- decembrie 2019
- noiembrie 2019
- octombrie 2019
- septembrie 2019
- august 2019
- iulie 2019
- iunie 2019
- mai 2019
- aprilie 2019
- martie 2019
- februarie 2019
- ianuarie 2019
- decembrie 2018
- noiembrie 2018
- octombrie 2018
- septembrie 2018
- august 2018
- iulie 2018
- iunie 2018
- mai 2018
- aprilie 2018
- martie 2018
- februarie 2018
- ianuarie 2018
- decembrie 2017
- noiembrie 2017
- octombrie 2017
- septembrie 2017
- august 2017
- iulie 2017
- iunie 2017
- mai 2017
- aprilie 2017
- martie 2017
- februarie 2017
- ianuarie 2017
- Supliment 2016
- decembrie 2016
- noiembrie 2016
- octombrie 2016
- septembrie 2016
- august 2016
- iulie 2016
- iunie 2016
- mai 2016
- aprilie 2016
- martie 2016
- februarie 2016
- ianuarie 2016
- decembrie 2015
- noiembrie 2015
- octombrie 2015
- septembrie 2015
- august 2015
- iulie 2015
- iunie 2015
- mai 2015
- aprilie 2015
- martie 2015
- februarie 2015
- ianuarie 2015
Calendar
| L | Ma | Mi | J | V | S | D |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | ||
| 6 | 7 | 8 | 9 | 10 | 11 | 12 |
| 13 | 14 | 15 | 16 | 17 | 18 | 19 |
| 20 | 21 | 22 | 23 | 24 | 25 | 26 |
| 27 | 28 | 29 | 30 | |||
Lasă un răspuns
Trebuie să fii autentificat pentru a publica un comentariu.