Inteligența Artificială: gardian sau infractor?

În lucrarea Artificial Intelligence: A Modern Approach, autorii Stuart Russell și Peter Norvig definesc Inteligența Artificială (AI)[1] ca „studiul agenților care primesc percepții din mediul înconjurător și efectuează acțiuni”[2]. Astfel, AI este înțeleasă ca reprezentând capacitatea unei mașini de a percepe și de a răspunde independent la sarcini care ar necesita, de regulă, inteligența umană în procesele de luare a deciziilor[3]. Patrick Winston, regretatul profesor de inteligență artificială și informatică de la Massachusetts Institute of Technology (MIT) definește AI ca „algoritmi activați de constrângeri, expuși de reprezentări care susțin modele vizate de bucle care leagă gândirea, percepția și acțiunea”[4]. Așa cum susține un alt autor[5], AI este o ramură mai vastă a științei computerelor, preocupată de construirea de mașini inteligente capabile să îndeplinească sarcini care necesită de obicei inteligență umană.

În cadrul acestui eseu, vom aborda AI dintr-o perspectivă duală, subliniind atât beneficiile pe care le poate aduce AI în sfera combaterii criminalității, cât și riscurile legate de posibilitatea ca AI să devină instrument în comiterea de fapte penale. Nu în ultimul rând, vom aduce în discuție demersurile legislative actuale naționale și internaționale și vom prezenta câteva exemple practice care ilustrează complexitatea relației AI – Criminalitate.

După cum subliniază Bernard Marr, o fațetă a inteligenței umane este capacitatea de a învăța din experiență[6]. Învățarea automată, pe de altă parte, este o aplicație a AI care imită învățarea și permite software-urilor să învețe din practică. Nu reprezintă o noutate faptul că, prin intermediul AI, se pot identifica potențiali criminali[7]. De pildă: „risk assessment tools”, o clasă de instrumente algoritmice, numite instrumente de evaluare a riscurilor (RAI), sunt concepute pentru a prezice viitorul risc al unui inculpat de a comite fapte antisociale[8]. Aceste previziuni ajută organele judiciare, spre exemplu, dacă inculpatul trebuie încarcerat sau nu.

De altfel, putem menționa chatbot-ul Sweetie, un program AI, a cărui menire este să combată pedofilia online (acte cu conținut sexual explicit care implică copii, realizate prin intermediul webcam-ului) prin identificarea suspecților, infractorilor și a victimelor. Acest chatbot a fost creat de organizația Terre des Hommes[9] din Olanda, în 2003. De la prima utilizare, Sweetie a condus la condamnarea mai multor cetățeni englezi, danezi, olandezi și belgieni pentru pedofilie online[10].

În aceeași ordine de idei, vorbim de soluții software care folosesc o largă cantitate de date, procesate de algoritmi software, pentru a ghida luarea deciziilor[11]. Vorbim de date statistice, date istorice care prezic unde și când, în viitor, se va petrece o faptă penală. Aceasta este diferența esențială față de sistemele informatice trecute: prezic șansa ca o activitate criminală să apară. În scenariul ideal, un polițist, care este informat de un astfel de sistem, va fi exact la locul și timpul în care un criminal ar fi avut intenția să comită o crimă. În modul acesta, crima va fi prevenită.

Pe de altă parte, AI poate juca un rol esențial în comiterea de fapte penale[12]. Acesta este motivul pentru care doctrina vorbește despre un nou tip de infracționalitate: „AI Crime” (AIC)[13]. AIC pune accentul pe utilizarea AI ca mijloc sau metodă de comitere a infracțiunii, existând posibilitatea ca pe viitor să fie incluse și infracțiunile de orice tip comise de AI ca subiect de drept[14]. Existența AIC a fost demonstrată de către cercetători prin experimente în care au convins utilizatorii de social media să dea click pe link-urile de phishing[15]. Acest tip de experimente evidențiază clar că AI constituie o amenințare serioasă și fundamental nouă[16].

Odată recunoscut acest fenomen[17], se impune analiza riscurilor pe care AIC le reprezintă în desfășurarea relațiilor sociale și asigurarea unei protecții penale corespunzătoare și eficiente pentru valorile sociale amenințate prin AIC. Pe tărâmul soluțiilor, trebuie verificat dacă incriminările actuale sunt suficiente pentru a proteja relațiile și valorile sociale de fapte cu caracter penal care se realizează prin intermediul AI. Reglementările interne „trebuie să reflecte ideea transnațională de ordine, justiție și solidaritate”[18].

Astfel, este necesară evaluarea critică și atentă a efectelor pe care le produc unii agenți artificiali care funcționează defectuos sau necorespunzător, ori care generează rezultate prin care se aduce atingere drepturilor rezervate nouă. Ca entități non-umane, comportamentul sistemelor AI nu poate fi judecat raportat la standarde morale. Unii autori contemporani[19] observă că judecata morală necesită în mod obișnuit un element ce implică capacități de opțiune, empatie sau cooperare. Nu poate exista o moralitate asociată agenților artificiali; comportamentul lor este cauzal determinat de specificațiile umane.

În acest sens, aplicațiile AI în luarea deciziilor guvernamentale, în special cele din sistemul de justiție penală, ar trebui să îngrijoreze. Dovezile existente sugerează că algoritmii „moștenesc” și uneori intensifică prejudecățile și inechitățile existente[20]. Apoi, există consecințe negative AI care se manifestă în planul discursului democratic și al politicii. Acest lucru nu se datorează doar dezinformării algoritmice din social media, ci și capacității crescânde a companiilor și a guvernelor de a monitoriza și manipula comportamentele a milioane de oameni, ceea ce este incompatibil cu adevărata democrație[21].

Recent, la 29 iunie 2021, un proiect de raport privind AI în dreptul penal și utilizarea acestuia de către poliție și autoritățile judiciare în materie penală a fost prezentat și adoptat de Comisia pentru libertăți civile, justiție și afaceri interne, cu 36 de voturi pentru și 24 împotrivă. Deși recunoaște potențialele beneficii pe care le aduce AI, raportul subliniază și riscurile și efectele semnificative pe care le poate implica[22].

Psihologia conturează amenințările AI în sfera sănătății mintale a unui utilizator, AI putând provoca comiterea de infracțiuni de către cel din urmă. Acest fapt a fost demonstrat de Joseph Weizembaum[23] după efectuarea de experimente care vizau interacțiunea om-bot, în cadrul cărora oamenii au dezvăluit detalii dintre cele mai intime, aflându-se sub influența AI.

Ca multe alte tehnologii, AI poate servi unor scopuri multiple, fiind utilizată atât pentru binele societății, cât și pentru acțiuni dăunătoare acesteia. AI poate realiza multe activități care în mod normal sunt efectuate de oameni și, în unele cazuri, depășește chiar performanțele umane din punct de vedere al eficienței și al rapidității și obiectivității[24]. Acest lucru înseamnă că infracțiunile care au necesitat până acum abilități umane pot fi săvârșite la o scară mult mai mare prin intermediul AI. Unul dintre principalele aspecte ale AI ca mijloc de comitere a infracțiunii este, așa cum se subliniază în literatura juridică[25], faptul că poate crește distanța dintre infractor și victime și, prin urmare, crește și dificultatea investigării și dovedirii faptei. Privind din această optică, AI este văzută ca un adevărat „vector” al infracțiunii[26].

Sistemele AI ar putea permite actorilor umani să comită infracțiuni „invizibile”[27]. De exemplu, majoritatea oamenilor nu sunt capabili să imite vocile altor persoane în mod realist sau să creeze manual fișiere audio care să se asemene cu înregistrări ale vorbirii umane. Cu toate acestea, recent s-au înregistrat progrese semnificative în dezvoltarea sistemelor AI de sinteză a vorbirii care învață să imite vocile indivizilor. Nu există niciun motiv evident pentru care rezultatele acestor sisteme nu ar putea deveni imposibil de distins față de înregistrările autentice, în absența măsurilor de protecție special concepute[28].

În raportul Europol cu privire la evaluarea amenințării criminalității grave și organizate (SOCTA 2017)[29] sunt scoase la lumină modalitățile prin care infracționalitatea tehnologică tinde să se coreleze cu anumite tipologii de organizații infracționale. Doctrina, de altfel, pune în evidență că AI și criminalitatea tehnologică tinde să devină un nou domeniu de specializare pentru crima organizată[30]. Astfel, AI poate juca un rol în organizațiile criminale, cum ar fi cartelurile de droguri[31]. O înțelegere a acestor fenomene va conduce inevitabil la adoptarea unor măsuri de prevenție. În acest sens, și legiuitorul român a incriminat unele fapte care pot fi comise doar prin intermediul AI. Astfel, cu titlu de exemplu, Codul penal incriminează: frauda informatică (art. 249 C. pen.), accesul ilegal la un sistem informatic (art. 360 C. pen.), transferul neautorizat de date informatice (art. 362 C. pen.) ș.a.m.d. Mai mult, legiuitorul român dedică un întreg capitol infracțiunilor care se comit în domeniul informatic: Capitolul VI al Titlului VII al Părții Speciale a Codului penal. Pe plan european, însuși Tratatul privind funcționarea Uniunii Europene face trimitere la conceptul de „criminalitate informatică”, în cuprinsul art. 83 alin. (1) referitor la competența Parlamentului European și a Consiliului de a legifera, prin intermediul directivelor, cu privire la definirea infracțiunilor și sancțiunilor în domenii considerate de o gravitate deosebită și având o dimensiune transfrontalieră. În acest sens, Directiva 2018/1673/UE privind combaterea prin măsuri de drept penal a spălării banilor[32] include în gama de activități infracționale relevante și „criminalitatea informatică”, inclusiv orice infracțiune prevăzută în Directiva 2013/40/UE a Parlamentului European și a Consiliului” [art. 2 par. 1 lit. (v) din Directivă]. Din această formulare, se poate deduce că legiuitorul european interpretează extensiv acest concept[33], nelimitându-l doar la infracțiunile ce fac obiectul art. 360-365 C. pen.

De altfel, criminalitatea informatică a făcut obiectul a numeroase decizii judiciare pronunțate de instanțele naționale, decizii care au analizat inclusiv problema utilizării instrumentelor de AI în procesul penal. Cu titlu de exemplu menționez: Decizia din 25 iulie 2019, Curtea Supremă Glasgow (Regatul Unit), în care o persoană a fost condamnată pentru prima dată, pentru transmiterea în direct pe net (live-streaming) a unor abuzuri sexuale asupra copiilor, care au avut loc în Filipine, și Decizia din 14 decembrie 2018, Curtea de Apel din Amsterdam (Olanda), în care inculpatul a primit pedeapsa maximă de 10 ani și 243 de zile de închisoare pentru, pe lângă altele, deținere, producere, distribuire de materiale cu conținut pornografic cu minori, accesarea și deținerea de programe software în acest scop, șantaj și înșelăciune[34].

Parafrazându-l pe Bill Gates, atunci când vine vorba de tehnologie, în doi ani se întâmplă mai puțin decât ne așteptăm. Dar în zece se întâmplă mai mult[35]. La fel este și cu AI. Relația AI – Criminalitate există deja și va continua să existe, fie că vrem sau nu. Important este modul în care reușim să ne protejăm, iar această protecție o poate oferi doar un cadru legislativ exhaustiv bine și atent conturat, care să confere garanția respectării drepturilor și libertăților fundamentale, însăși cheia pentru o conviețuire armonioasă cu AI. Credem că discuțiile pe această temă ar trebui tratate deontologic. Astfel, trebuie să reflectăm cu privire la atitudinile noastre despre conștiință, despre demnitatea umană, despre diferența dintre organic și sintetic. După cum subliniază Erik Hoel, a cărui opinie o împărtășim[36]: o mașinărie nu trebuie niciodată să fie făcută după asemănarea minții umane, întrucât Inteligența Artificială de care ar trebui să ne temem este deja aici.


[1] Se va folosi prescurtarea AI cu referire la Inteligența Artificială.

[2] Stuart J. Russel, Peter Norvig, Artificial Intelligence A Modern Approach, în Pearson Education Limited, Ediția a treia, 2010, p. 4.

[3] Christopher Rigano, Using Artificial Intelligence to Adress Criminal Justice Needs, National Institute of Justice (2018), disponibil la https://nij.ojp.gov/topics/articles/using-artificial-intelligence-address-criminal-justice-needs [accesat la data de 10 august 2021].

[4] Builtln, What is Artificial Intelligence? (2017), disponibil la https://builtin.com/artificial-intelligence [accesat la data de 4 august 2021].

[5] Laura Maria Stănilă, Inteligența Artificială, Dreptul Penal și Sistemul de Justiție Penală. Amintiri despre viitor, București, Universul Juridic, 2020, p.36.

[6] Bernard Marr, What Is the Difference Between Deep Learning, Machine Learning and AI?, Forbes (2016), disponibil la https://www.forbes.com/sites/bernardmarr/2016/12/08/what-is-the-difference-between-deep-learning-machine-learning-and-ai/?sh=3781af0726cf [accesat la data de 10 august 2021].

[7]A Recommendation System for Statutory Interpretation in Cybercrime” at the University of Pittsburgh, NIJ award number 2016-R2-CX-0010, disponibil la https://nij.ojp.gov/funding/awards/2016-r2-cx-0010 [accesat la data de 9 august 2021].

[8] Alex Chohlas-Wood, Understanding risk assessment instruments in criminal justice, în The Brookings Institution (2020), disponibil la https://www.brookings.edu/research/understanding-risk-assessment-instruments-in-criminal-justice/ [accesat 11 august 2021].

[9] Site oficial: www.terredeshommes.nl.

[10] Terre des Hommes, First conviction for child abuse in Belgium thanks to Sweetie, 2015, disponibil la https://www.terredeshommes.nl/en/news/first-conviction-child-abuse-belgium-thanks-sweetie [accesat la data de 9 august 2021].

[11] Ionuț Baiaș, Cum poți prinde un criminal folosind algoritmi și tehnici de inteligiență artificială (IA), HotNews.ro, 2020, disponibil la https://www.hotnews.ro/stiri-superputerile_tehnologiei-24433285-interviu-cum-poti-prinde-criminal-folosind-algoritmi-tehnici-inteligienta-artificiala-vlad-niculescu-dinca-cercetator-haga-important-gasim-echilibru-intre-nevoia-fortelor-ordine-eficiente-nevoia-socie.htm [accesat la data de 7 august 2021].

[12] Thomas C. King, Nikkita Agarwal, Mariarosaria Taddeo, Luciano Floridi, Artificial Intelligence Crime. An Interdisciplinary Analysis of Forseeable Threats and Solutions, în Science and Engeneering Ethics, 14 February 2019, disponibil la https://www.researchgate.net/publication/342773203_Artificial_Intelligence_Affordances_Deepfakes_as_Exemplars_of_AI_Challenges_to_Criminal_Justice_Systems/link/5f44b659a6fdcccc43fd22c1/download [accesat la data de 10 august 2021].

[13] T. C. King. et al, op. cit., nota 9, pp. 90-91.

[14] L. Stănilă, op. cit., nota 4, p. 64.

[15] Phishing-ul este o metodă de înșelăciune online prin care se încearcă obținerea, de la clienții unor organizații diverse, a unor date personale sau confidențiale. Acestea pot fi folosite ulterior în mod ilegal de către infractori, pentru a efectua tranzacții în contul clientului respectiv.

[16] T. C. King et al., op. cit., nota 9, pp. 90-91.

[17] L. Stănilă, op. cit., nota 4, pp. 67-68.

[18] Roger Cotterel, The concept of „crime” and transnational networks of community, în Vaslamis Mitsilegas, Peter Alldrige, Leonidas Cheliotis (eds.), Globalization, Criminal Law and Criminal Justice, Bloomsbury 2017, p. 22.

[19] Laura Maria Stănilă, Inteligența artificială și sistemul de justiție penală – Instrumentele de evaluare a riscului penal, în Revista Română de Drept al Afacerilor, disponibil la http://rrdpa.ro/numarul-3-2019/inteligenta-artificiala-si-sistemul-de-justitie-penala-instrumentele-de-evaluare-a-riscului-penal/ [accesat la data de 10 august 2021].

[20] Daron Acemoglu, Opinion: The AI we should fear is already here, în The Washington Post (2021), disponibil la https://www.washingtonpost.com/opinions/2021/07/21/ai-we-should-fear-is-already-here/ [accesat la data de 10 august 2021].

[21] Ibidem.

[22] European Parliament’s Libe Committee Adopted a New Draft Report On The Use Of AI By The Police And Judicial Authorities, în Team AI Regulation (2021), disponibil la https://ai-regulation.com/libe-new-draft-report-on-the-use-of-ai-by-the-police-and-judicial-authorities/ [accesat la data de 10.08.2021].

[23] Weizenbaum, J. (1976), Computer power and human reason: From judgment to calculation, Oxford: W.H. Freeman & Co., în Sage Journals (1976), disponibil la https://journals.sagepub.com/doi/10.1177/000271627642600162 [accesat la data de 10 august 2021].

[24] Miles Brundage, Shahar Avin, Jack Clark et al., The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation, Raport 2018, disponibil la https://maliciousaireport.com/ [accesat la data de 05 august 2021].

[25] Benoit Dupont, Yuan Stevens, Hannes Westermann, Michael Joyce (dir.), Artificial Intelligence in the Context of Crime and Criminal Justice, în Korean Institute of Criminology, Canada Research Chair in Cybersecurity, ICCC, Université de Montréal, (2018), p. 7, disponibil la https://www.cicc-iccc.org/public/media/files/prod/publication_files/Artificial-Intelligence-in-the-Context-of-Crime-and-Criminal-Justice_KICICCC_2019.pdf [accesat la data de 10 august 2021].

[26] Ibidem.

[27] Laura Maria Stănilă, Inteligența Artificială, Dreptul Penal și Sistemul de Justiție Penală. Amintiri despre viitor, Universul Juridic, București 2020, p.123.

[28] Miles Brundage ș.a., op. cit., p. 20.

[29] Europol, The EU Serious and Organised Crime Threat Assessment (SOCTA), 2017, p. 10, https://www.europol.europa.eu/activities-services/main-reports/european-union-serious-and-organised-crime-threat-assessment-2017 [accesat la data de 05 august 2021].

[30] T.C. King ș.a., op. cit., p. 30.

[31] L. Stănilă, op. cit., nota 4, p. 124.

[32] Publicat în Jurnalul Oficial al Uniunii Europene L 284 din 12 noiembrie 2018.

[33] George Zlati, Tratat de Criminalitate Informatică, Vol. 1, Ed. Solomon 2020, p. 10.

[34] Eurojust, Cybercrime Judicial Monitor, nr. 5, decembrie 2019, pp. 10-12, disponibil la http://www.eurojust.europa.eu/doclibrary/Eurojust-framework/cybercrimejudicialmonitor/CJM%20Issue%20-%20December%202019/2019-12_CJM-5_EN.pdf [accesat 06 august 2021].

[35] Disponibil la https://www.youtube.com/watch?v=4r9u_R0cCew [accesat la data de 10 august 2021].

[36] Erik Hoel, We need a Butlerian Jihad against AI. A proposal to ban AI research by treating it like human-animal hybrids, în The Intrisic Perspective (2021), disponibil la https://erikhoel.substack.com/p/we-need-a-butlerian-jihad-against [accesat la data de 10 august 2021].

Inteligența Artificială: gardian sau infractor? was last modified: noiembrie 5th, 2021 by Daniel-Cosmin Sporea

Numai utilizatorii autentificați pot scrie comentarii

Arhiva Revista

Despre autor:

Daniel-Cosmin Sporea

Daniel-Cosmin Sporea

Este student, Facultatea de Drept, Universitatea de Vest din Timișoara.