• Grup editorial Universul Juridic
    • Editura Universul Juridic
    • Editura Pro Universitaria
    • Editura Neverland
    • Libraria Ujmag.ro
  • Contact
  • Autentificare
  • Inregistrare
Skip to content
  • Acasă
  • Echipa editorială
  • Autori
  • Procesul de recenzare
  • Indexare BDI
  • Contact
  • PORTAL UNIVERSUL JURIDIC

Calendar

mai 2025
L Ma Mi J V S D
 1234
567891011
12131415161718
19202122232425
262728293031  
« apr.    

Archives

  • aprilie 2025
  • martie 2025
  • februarie 2025
  • ianuarie 2025
  • decembrie 2024
  • noiembrie 2024
  • octombrie 2024
  • septembrie 2024
  • august 2024
  • iulie 2024
  • iunie 2024
  • mai 2024
  • aprilie 2024
  • martie 2024
  • februarie 2024
  • ianuarie 2024
  • decembrie 2023
  • noiembrie 2023
  • octombrie 2023
  • septembrie 2023
  • august 2023
  • iulie 2023
  • iunie 2023
  • mai 2023
  • aprilie 2023
  • martie 2023
  • februarie 2023
  • ianuarie 2023
  • decembrie 2022
  • noiembrie 2022
  • octombrie 2022
  • septembrie 2022
  • august 2022
  • iulie 2022
  • iunie 2022
  • mai 2022
  • aprilie 2022
  • martie 2022
  • februarie 2022
  • ianuarie 2022
  • Supliment 2021
  • decembrie 2021
  • noiembrie 2021
  • octombrie 2021
  • septembrie 2021
  • august 2021
  • iulie 2021
  • iunie 2021
  • mai 2021
  • aprilie 2021
  • martie 2021
  • februarie 2021
  • ianuarie 2021
  • decembrie 2020
  • noiembrie 2020
  • octombrie 2020
  • septembrie 2020
  • august 2020
  • iulie 2020
  • iunie 2020
  • mai 2020
  • aprilie 2020
  • martie 2020
  • februarie 2020
  • ianuarie 2020
  • decembrie 2019
  • noiembrie 2019
  • octombrie 2019
  • septembrie 2019
  • august 2019
  • iulie 2019
  • iunie 2019
  • mai 2019
  • aprilie 2019
  • martie 2019
  • februarie 2019
  • ianuarie 2019
  • decembrie 2018
  • noiembrie 2018
  • octombrie 2018
  • septembrie 2018
  • august 2018
  • iulie 2018
  • iunie 2018
  • mai 2018
  • aprilie 2018
  • martie 2018
  • februarie 2018
  • ianuarie 2018
  • decembrie 2017
  • noiembrie 2017
  • octombrie 2017
  • septembrie 2017
  • august 2017
  • iulie 2017
  • iunie 2017
  • mai 2017
  • aprilie 2017
  • martie 2017
  • februarie 2017
  • ianuarie 2017
  • decembrie 2016
  • noiembrie 2016
  • octombrie 2016
  • septembrie 2016
  • august 2016
  • iulie 2016
  • iunie 2016
  • mai 2016
  • aprilie 2016
  • martie 2016
  • februarie 2016
  • ianuarie 2016
  • decembrie 2015
  • noiembrie 2015
  • octombrie 2015
  • septembrie 2015
  • august 2015
  • iulie 2015
  • iunie 2015
  • mai 2015
  • aprilie 2015
  • martie 2015
  • februarie 2015
  • ianuarie 2015

Categories

  • Abstract
  • Actualitate legislativă
  • Alte categorii
  • Din jurisprudența CCR
  • Din jurisprudența ÎCCJ
  • Editorial
  • HP
  • Interviu
  • Prefata
  • Recenzie de carte juridică
  • RIL
  • Studii, articole, opinii
  • Studii, discuții, comentarii (R.  Moldova și Ucraina)
  • Supliment 2016
  • Supliment 2021
Revista Universul JuridicRevistă lunară de doctrină și jurisprudență | ISSN 2393-3445
  • Acasă
  • Echipa editorială
  • Autori
  • Procesul de recenzare
  • Indexare BDI
  • Contact
  • PORTAL UNIVERSUL JURIDIC

Impactul Inteligenței Artificiale asupra drepturilor la egalitate și nediscriminare în lumina Propunerii de Regulament al Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind Inteligența Artificială (Legea privind Inteligența Artificială) și de modificare a anumitor acte legislative ale Uniunii

Roxana Matefi - iulie 4, 2021

I. Introducere. Conceptul de Inteligență Artificială

Ce este, de fapt, Inteligența Artificială? – constituie o întrebare fundamentală, care presupune răspunsuri complexe, având în vedere larga utilizare a acestui concept.

Sintagma cunoaște numeroase definiții, care diferă de la un context la altul și care, de-a lungul timpului, au evoluat continuu.

Într-o accepțiune, IA este definită ca reprezentând tot ceea ce este computerizat. Punând lucrurile în perspectivă, poate că în urmă cu 40-50 de ani sau chiar mai mult, tot ceea ce are legătură cu modul în care utilizăm computerele în prezent ar fi fost catalogat ca fiind o formă de Inteligență Artificială.

O astfel de interpretare are o natură subiectivă, reprezentând o extremă a întrebuințării sale.

La cealaltă extremă, mai ales in literatura SF, Inteligența Artificială este definită ca reprezentând acele mașini care au simțăminte, care sunt conștiente și au capacitatea de a gândi singure.

Între cele două extreme există o zonă destul de largă. Ceea ce, în zilele noastre, denumim Inteligență Artificială sunt acele aspecte cognitive ale unei mașini sau ale unui computer sau ceea ce desemnăm și sub numele de machine learning. Fiind un domeniu atât de vast, Inteligența Artificială nu se reduce în mod exclusiv la sintagma de machine learning, referirile la IA fiind foarte diverse.

Potrivit Dicționarului Longman, IA constitutuie „o ramură a științei computerelor care urmărește să producă mașini care au capacitatea de a înțelege, de a face raționamente în modalitatea în care o fac oamenii”, în timp de Dicționarul Oxford definește acest concept ca „teoria și dezvoltarea sistemelor computerelor, capabile să execute sarcini care, în mod normal, presupun inteligență umană, precum luare unor decizii sau recunoașterea vocală”.

Inteligența Artificială este utilizată în domenii variate, deopotrivă în sectorul public și cel privat. Putem exemplifica în acest sens cu domeniul medical (cercetare, diagnostic sau tratament); administrația publică; sectorul bancar; autovehiculele autonome etc. Lista domeniilor de aplicabilitate a AI rămâne, așadar deschisă, având în vedere dezvoltarea sa rapidă.

În ciuda faptului că Inteligența Artificială, indiferent de domeniul în care este utilizată, aduce o serie de beneficii incontestabile, nu putem trece cu vederea potențialul de risc pe care aceasta îl generează asupra drepturilor fundamentale ale individului, precum dreptul la viața privata, dreptul la demnitate, libertatea de expresie, libertatea de mișcare, securitatea individului, precum și alte drepturi recunoscute și protejate la nivel internațional.

În condițiile existenței unei strânse legături între toate drepturile fundamentale, riscul ca acestea să fie afectate prin utilizarea necorespunzătoare a sistemelor de inteligență artificială planează asupra majorității acestora, dacă nu asupra tuturor.

Astfel, potrivit Grupului la nivel înalt al Secretariatului General al ONU de promovare a cooperării digitale, „pe măsură ce orice nouă tehnologie se dezvoltă, este necesar să ne întrebăm în ce mod aceasta poate crea noi căi de încălcare a drepturilor – mai ales acelea ale persoanelor care sunt deja marginalizate sau discriminate”, având în vedere faptul că „delegăm tot mai multe dintre deciziile noastre sistemelor inteligente, de la modul în care ajungem la muncă, până la ceea ce alegem să mâncăm la cină. Acest lucru ne poate îmbunătăți viețile, eliberându-ne timpul pentru activități pe care le considerăm mai importante. Însă, în același timp ne obligă să regândim înțelegerea noastră asupra demnității umane, având în vedere faptul că algoritmii devin din ce în ce mai sofisticați în manipularea alegerilor noastre – de exemplu, la a ne menține atenția lipită de un ecran”.

 

II. Conceptele de egalitate și nediscriminare

Potrivit art. 14 din Convenția Europeană a Drepturilor Omului, „Exercitarea drepturilor şi libertăţilor recunoscute de prezenta Convenţie trebuie să fie asigurată fără nicio deosebire bazată, în special, pe sex, rasă, culoare, limbă, religie, opinii politice sau orice alte opinii, origine naţională sau socială, apartenenţă la o minoritate naţională, avere, naştere sau orice altă situaţie”, în timp ce art. 26 din Pactul Internațional cu privire la drepturile civile și politice prevede că „Toate persoanele sunt egale în faţa legii şi au, fără discriminare, dreptul la o ocrotire egală din partea legii. În această privinţă, legea trebuie să interzică orice discriminare şi să garanteze tuturor persoanelor o ocrotire egală şi eficace contra oricărei discriminări, în special de rasă, culoare, sex, limbă, religie, opinie politică sau orice altă opinie, origine naţională sau socială, avere, naştere sau întemeiată pe orice altă împrejurare”.

Interdicția se referă atât la discriminarea directă, cât și la cea indirectă. Discriminarea directă rezultă din directa aplicare a criteriilor discriminatorii la care am făcut referire anterior, în timp ce discriminarea indirectă are la bază criterii care sunt neutre în aparență, dar care dau naștere unor efecte similare celor ale discriminării directe. În cazul discriminării indirecte, criteriile aparent neutre pot fi folosite sau alese în mod intenționat în scopul excluderii sau discriminării unor anumite categorii de persoane (precum bărbați, femei, persoane peste o anumită vârstă, persoane care aparțin unei anumite etnii, rase sau religii sau persoane care au o anumită orientare sexuală, etc.), însă, în același timp, pot fi folosite sau alese într-o manieră neintenționat discriminatorie, pentru diferite alte scopuri, fără a avea în vedere faptul că acestea pot conduce la discriminare, la excluderea anumitor categorii de indivizi.

Merită subliniat în acest context că ambele forme de discriminare, atât cea directă, cât și cea indirectă, pot fi intenționate sau neintenționate.

Atunci când analizăm potențialul risc pe care Inteligența Artificială îl are asupra egalității și nediscriminării, un aspect important în acest context este lipsa de transparență, în condițiile în care, așa cum am arătat anterior, aceste sisteme de Inteligență Artificială sunt din ce în ce mai sofisticate și uneori imprevizibile, astfel încât este foarte dificil de stabilit cum este luată o anumită decizie.

În principiu, aproape orice program, aplicație, computer pe care îl folosim astăzi, cu puțin efort, teoretic, poate fi analizat, îi putem înțelege codul, însă nu același lucru se întâmplă în cazul sistemelor de inteligență artificială, în cazul cărora nu avem instrumentele necesare pentru „a înțelege ce anume se petrece în cutia neagră a învățării”, după cum a afirmat Jan Kleijssen – Director al Societății Informaționale și de acțiune împotriva crimei din cadrul Consiliului Europei.

Poate, pe viitor, vom putea dezvolta instrumentele necesare pentru a analiza modul în care sistemele de IA au luat anumite decizii, însă, la acest moment, ele ne lipsesc.

Potrivit Cărții albe privind inteligența artificială: o abordare europeană a excelenței și încrederii[1], „riscurile pot rezulta din defecte în designul general al sistemelor de Inteligență Artificială și din utilizarea de date fără a corecta posibilele înclinații părtinitoare”.

 

III. Propunerea de Regulament al Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind Inteligența Artificială (Legea privind Inteligența Artificială) și de modificare a anumitor acte legislative ale Uniunii

Potrivit acestei Propuneri, obiectivele specifice ale cadrului de reglementare privind inteligența artificială sunt următoarele:

– „asigurarea faptului că sistemele de IA introduse pe piața Uniunii și utilizate sunt sigure și respectă legislația existentă privind drepturile fundamentale și valorile Uniunii;

– asigurarea securității juridice pentru a facilita investițiile și inovarea în domeniul IA;

– consolidarea guvernanței și asigurarea efectivă a respectării legislației existente privind drepturile fundamentale și a cerințelor de siguranță aplicabile sistemelor de IA;

– facilitarea dezvoltării unei piețe unice pentru sisteme de IA legale, sigure și de încredere și prevenirea fragmentării pieței”[2].

În ceea ce privește dreptul la nediscriminare, Propunerea conține o serie de referiri despre care vom face vorbire în cele ce urmează.

Pornind de la ideea că „utilizarea IA cu caracteristicile sale specifice (de exemplu, opacitatea, complexitatea, dependența de date, comportamentul autonom) poate afecta în mod negativ o serie de drepturi fundamentale consacrate în Carta drepturilor fundamentale a UE (…) propunerea urmărește să asigure un nivel ridicat de protecție a acestor drepturi fundamentale și să abordeze diverse surse de riscuri printr-o abordare bazată pe riscuri clar definită”[3].

Printre drepturile a căror consolidare și promovare este urmărită prin această inițiativă, se numără, alături de dreptul la nediscriminare și dreptul la demnitatea umană, la respectarea vieții private și protecția datelor cu caracter personal, la egalitatea între femei și bărbați, la libertatea de exprimare, la libertatea de întrunire, la asigurarea protecției dreptului la o cale de atac eficientă și la un proces echitabil, etc.

Propunerea de Lege privind Inteligența Artificială subliniază riscul în ceea ce privește generarea unor rezultate discriminatorii sau excluderea unor anumite categorii de persoane, în cazul utilizării unor „sisteme de IA care oferă o evaluare a comportamentului social al persoanelor fizice în scopuri generale de către autoritățile publice sau în numele acestora”[4]. Rolul acestor sisteme este cel de evaluare sau clasificare a credibilității persoanelor, bazat pe comportamentul lor social, astfel încât „punctajul privind comportamentul social obținut din astfel de sisteme de IA poate duce la un tratament negativ sau nefavorabil al persoanelor fizice sau al unor grupuri întregi de astfel de persoane în contexte sociale care nu au legătură cu contextul în care datele au fost inițial generate sau colectate sau la un tratament defavorabil care este disproporționat sau nejustificat în raport cu gravitatea comportamentului lor social”[5], propunerea fiind de interzicere a unor sisteme IA de acest tip.

O atenție deosebită se impune a fi acordată, în lumina reglementărilor acestei propuneri, și acelor sisteme de Inteligență Artificială care sunt utilizate în domeniul migrației, azilului sau controlului la frontieră și care pot crea un potențial de risc în ceea ce privește dreptul la nediscriminare, putând astfel afecta persoane aflate într-o situație de vulnerabilitate, astfel că aceste sisteme ar trebui clasificate ca având un grad ridicat de risc.

În aceeași categorie a sistemelor de IA, cu grad ridicat de risc se impune a fi încadrate și „sistemele de IA utilizate pentru a evalua punctajul de credit sau bonitatea persoanelor fizice, (…) întrucât acestea determină accesul persoanelor respective la resurse financiare sau la servicii esențiale, cum ar fi locuințe, electricitate și servicii de telecomunicații, (n.n. astfel încât) pot duce la discriminarea persoanelor sau a grupurilor și perpetuează modelele istorice de discriminare, de exemplu pe criterii de origine rasială sau etnică, handicap, vârstă, orientare sexuală, sau pot crea noi forme de impact discriminatoriu”[6].

În lumina aceleiași propuneri de Lege privind Inteligența Artificială, ar trebui clasificate ca având grad ridicat de risc și acele sisteme care utilizează Inteligența Artificială și care sunt folosite în domenii precum ocuparea forței de muncă, recrutarea și selectarea viitorilor angajați, alocarea sarcinilor, monitorizarea, precum și evaluarea angajaților, apreciindu-se că utilizarea unor astfel de sisteme poate genera un efect discriminatoriu raportat la anumite categorii vulnerabile, precum femei, persoane peste o anumită vârstă, persoane aparținând unor anumite rase sau unor anumite etnii sau care au o anumită orientare sexuală.

În SUA, spre exemplu, în statul Illinois, a fost adoptat, în anul 2020, Artificial Intelligence Video Interview Act, reglementare care stabilește o serie de obligații în sarcina angajatorului care utilizează mijloace de IA pentru a analiza interviul înregistrat pe suport video al unui candidat pentru un anumit post.

Printre obligațiile care îi incumbă se numără notificarea fiecărui aplicant înaintea interviului cu privire la faptul că vor fi utilizate sisteme de IA în vedere analizării interviului video; de a pune la dispoziția aplicantului informații cu privire la modul în care funcționează IA, precum și de a obține înainte de interviu de la fiecare candidat a consimțâmântul informat al acestuia.

Propunerea de Lege privind Inteligența Artificială prevede, totodată, că „sistemele de IA cu grad ridicat de risc ar trebui să fie însoțite de documentația relevantă și de instrucțiuni de utilizare și să includă informații concise și clare, inclusiv în ceea ce privește posibilele riscuri la adresa drepturilor fundamentale și în ceea ce privește discriminarea, după caz”[7].

 

IV. Concluzii

Inteligența Artificială evoluează în mod rapid, fiind un domeniu complex, a cărui înțelegere este încă în stadiu incipient, existând încă multe necunoscute legate de modalitatea de învățare și luare a deciziilor.

Totodată, ne lipsesc mijloacele de a accesa „umanitatea” sistemelor de inteligență artificială, atribuind responsabilitatea entităților umane. În timp ce codificarea este susceptibilă de a fi atribuită, procesul de învățare este încă o zonă gri.

Cine poartă responsabilitatea în caz de vătămare a drepturilor omului? Poate fi ținut responsabil sistemul de IA? Sau responsabilitatea revine programatorului/producătorului/ cumpărătorului/operatorului? Toate acestea sunt doar câteva întrebări care își caută încă răspuns, în condițiile în care riscul de a crea o vătămare nu este deloc neglijabil.

Înțelegerea și reglementarea sub aspect legal a IA trebuie să fie accelerate pentru a putea ține pasul cu progresele de ordin tehnologic și a putea, astfel, asigura protecția drepturilor fundamentale ale omului, inclusiv drepturile la egalitate și nediscriminare.

 

Bibliografie

– Convenția Europeană a Drepturilor Omului;

– Pactul Internațional cu privire la drepturile civile și politice;

– Propunerea de Regulament al Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind Inteligența Artificială;

– Cartea albă privind inteligența artificială: o abordare europeană a excelenței și încrederii;

– https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf;

– https://eur-lex.europa.eu/legal-content/RO/TXT/DOC/?uri=CELEX:52021PC0206&from=EN.

DOWNLOAD FULL ARTICLE

[1] https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf

[2] https://eur-lex.europa.eu/legal-content/RO/TXT/DOC/?uri=CELEX:52021PC0206&from=EN.

[3] Ibidem.

[4] Ibidem.

[5] Ibidem.

[6] Ibidem.

[7] Ibidem.

Lasă un răspuns Anulează răspunsul

Trebuie să fii autentificat pentru a publica un comentariu.

Arhive

  • aprilie 2025
  • martie 2025
  • februarie 2025
  • ianuarie 2025
  • decembrie 2024
  • noiembrie 2024
  • octombrie 2024
  • septembrie 2024
  • august 2024
  • iulie 2024
  • iunie 2024
  • mai 2024
  • aprilie 2024
  • martie 2024
  • februarie 2024
  • ianuarie 2024
  • decembrie 2023
  • noiembrie 2023
  • octombrie 2023
  • septembrie 2023
  • august 2023
  • iulie 2023
  • iunie 2023
  • mai 2023
  • aprilie 2023
  • martie 2023
  • februarie 2023
  • ianuarie 2023
  • decembrie 2022
  • noiembrie 2022
  • octombrie 2022
  • septembrie 2022
  • august 2022
  • iulie 2022
  • iunie 2022
  • mai 2022
  • aprilie 2022
  • martie 2022
  • februarie 2022
  • ianuarie 2022
  • Supliment 2021
  • decembrie 2021
  • noiembrie 2021
  • octombrie 2021
  • septembrie 2021
  • august 2021
  • iulie 2021
  • iunie 2021
  • mai 2021
  • aprilie 2021
  • martie 2021
  • februarie 2021
  • ianuarie 2021
  • decembrie 2020
  • noiembrie 2020
  • octombrie 2020
  • septembrie 2020
  • august 2020
  • iulie 2020
  • iunie 2020
  • mai 2020
  • aprilie 2020
  • martie 2020
  • februarie 2020
  • ianuarie 2020
  • decembrie 2019
  • noiembrie 2019
  • octombrie 2019
  • septembrie 2019
  • august 2019
  • iulie 2019
  • iunie 2019
  • mai 2019
  • aprilie 2019
  • martie 2019
  • februarie 2019
  • ianuarie 2019
  • decembrie 2018
  • noiembrie 2018
  • octombrie 2018
  • septembrie 2018
  • august 2018
  • iulie 2018
  • iunie 2018
  • mai 2018
  • aprilie 2018
  • martie 2018
  • februarie 2018
  • ianuarie 2018
  • decembrie 2017
  • noiembrie 2017
  • octombrie 2017
  • septembrie 2017
  • august 2017
  • iulie 2017
  • iunie 2017
  • mai 2017
  • aprilie 2017
  • martie 2017
  • februarie 2017
  • ianuarie 2017
  • decembrie 2016
  • noiembrie 2016
  • octombrie 2016
  • septembrie 2016
  • august 2016
  • iulie 2016
  • iunie 2016
  • mai 2016
  • aprilie 2016
  • martie 2016
  • februarie 2016
  • ianuarie 2016
  • decembrie 2015
  • noiembrie 2015
  • octombrie 2015
  • septembrie 2015
  • august 2015
  • iulie 2015
  • iunie 2015
  • mai 2015
  • aprilie 2015
  • martie 2015
  • februarie 2015
  • ianuarie 2015

Calendar

mai 2025
L Ma Mi J V S D
 1234
567891011
12131415161718
19202122232425
262728293031  
« apr.    

Categorii

  • Abstract
  • Actualitate legislativă
  • Alte categorii
  • Din jurisprudența CCR
  • Din jurisprudența ÎCCJ
  • Editorial
  • HP
  • Interviu
  • Prefata
  • Recenzie de carte juridică
  • RIL
  • Studii, articole, opinii
  • Studii, discuții, comentarii (R.  Moldova și Ucraina)
  • Supliment 2016
  • Supliment 2021

© 2023 Copyright Universul Juridic. Toate drepturile rezervate. | Theme by ThemeinProgress | Proudly powered by WordPress