Spre cea de-a patra categorie de drepturi ale omului, drepturile umane privind inteligența artificială? – Pentru un Pact internațional relativ la noile drepturi ale erei IA –
Mircea Duțu - ianuarie 10, 20256. Cadrul juridic european și internațional general – premisă a unor evoluții pertinente. Până la dezvoltarea unor reglementări sistematice și adecvate ale conexiunilor dintre drepturile omului și noile tehnologii, inclusiv cele ale IA, tema devine tot mai prezentă în declarațiile, propunerile de reglementare și diversele cadre juridice adoptate în acest context. Apariția și manifestarea provocărilor celei de-a patra revoluții industriale în dezbaterile drepturilor umane implică cel puțin patru probleme: noua etică aferentă, insuficiența discursului pertinent, prioritatea eticii și absența unei abordări a drepturilor omului[[17]. Ele se constituie în preocupări teoretice proprii, dar converg spre a exprima imperativul unei reglementări complexe, interdependente și multidimensionale. Încadrarea juridică a inteligenței artificiale cunoaște „valuri” de preocupări de reglementare provocate mai ales de noile progrese anunțate și manifestate pe piața noilor tehnologii emergente. La nivel internațional se multiplică și se intensifică procesele multipartite vizând stabilirea de definiții comune, angajante, de calificări juridice, de reguli susceptibile, de mai bune practici, linii directoare, precum și de diverse cadre de regulare tehnică și etică. Sunt vizate atât IA în mod transversal, cât și în utilizările sale specifice (vehicule autonome, recunoașterea facială, robotică, mașini, cybersecuritate, muncă, sănătate, luarea de decizii publice etc.) și se naște o coordonare de către o varietate de organizații internaționale, în special OCDE,UNESCO și UIT. Au fost vizate, cu precădere în acest ultim context, două noțiuni: cea de inteligență artificială și, respectiv, cea de sistem de inteligență artificială (SIA). Fără a fi identice, ele se dovedesc a fi apropiate: IA desemnează într-un anumit fel codul care, plecând de la datele de intrare, va produce un rezultat; la rândul său, SIA designează în general instrumentul (unealta) căruia îi va fi integrată inteligența artificială. La nivel mondial, Adunarea Generală a ONU a adoptat la 11 martie 2024 o rezoluție (A/78/L.49) denumită „Sesizarea posibilităților oferite de sistemele de inteligență artificială sigure, securizate și demne de încredere pentru dezvoltarea durabilă”. Adoptată cu unanimitate, aceasta are meritul de a plasa problematica încadrării IA în contextul dreptului internațional și al drepturilor omului[18]. Ca atare, textul său cheamă statele membre și părțile interesate la „a înceta să se servească de sistemele de inteligență artificială care sunt imposibil de utilizat în respectul dreptului internațional al drepturilor umane ori care prezintă riscuri excesive pentru exercitarea drepturilor umane, în particular pentru persoanele aflate în stare de vulnerabilitate și reafirmă că drepturile de care persoanele se bucură off line trebuie, de asemenea, să fie protejate on-line, de-a lungul întregului ciclu de viață al sistemelor de inteligență artificială”. Rezoluția nu constituie decât un element pentru numeroasele inițiatice dezvoltate în sfera onusiană în vederea stabilirii de reguli comune aplicabile noilor tehnologii. Comitetul consultativ la nivel înalt (High Level Advisory Board) privind IA, constituit de Secretarul general al ONU la 26 octombrie 2023, a redactat, în decembrie același an, un raport intermediar intitulat Governing AI for Humanity, menit să propună un model de „guvernanță internațională a IA”, a identificat cinci principii (respectiv caracterul inclusiv al guvernanței în materie, luarea în calcul a interesului public, guvernanța datelor, luarea în calcul a mizelor de universalitate, înscrierea în dreptul internațional, în special Carta ONU, drepturile omului și obiectivele dezvoltării durabile) și șapte funcții instituționale (evaluarea traiectoriei urmate de tehnicile de IA, promovarea interoperabilității măsurilor reglementare, armonizarea normelor și standardelor de gestiune a riscurilor, facilitatea utilizării IA, promovarea unei cooperări internaționale, supravegherea riscurilor și stabilirea de procedee de gestiune a mizelor și dezvoltarea de mecanisme de conformitate și de responsabilitate fondate pe norme juridice obligatorii. Pactul digital global din septembrie 2024 a definitivat și completat un atare cadru general[19]. ONU va trebui să-și coordoneze inițiativele sale cu cele desfășurate la nivel regional și care se dovedesc mai consistente și mai avansate în context european, respectiv în cadrul Consiliului European și în cel al Uniunii Europene.
Potrivit considerentelor adoptării sale, Convenția-cadru din 17 mai 2024 se dorește a reprezenta „un cadru juridic aplicabil la nivel mondial”, care să enunțe „principii generale comune”, să guverneze activitățile desfășurate în cadrul ciclului de viață al sistemelor de inteligență artificială, să păstreze în mod eficient valorile comune și să exploateze în mod propice inovarea responsabilă. Sunt vizate a fi astfel evitate atingerile ce pot fi aduse „demnității umane și autonomiei personale, drepturilor omului, democrației și statului de drept”. El e conceput precum un tratat-cadru ce poate fi completat „prin alte instrumente juridice destinate să trateze chestiuni specifice” legate de obiectul său de reglementare. În virtutea caracterului său de tratat internațional cu vocație dincolo de membrii Consiliului Europei (conform art. 30 al Convenției, fiind deschisă semnării și statelor membre ce au participat la elaborarea ei), Convenția-cadru privind IA stipulează un ansamblu de principii și de obligații vizând a garanta că activitățile aferente ciclului de viață al sistemelor de inteligență artificială să fie pe deplin compatibile cu drepturile omului, democrația și statul de drept și e destinată să constituie o normă în toate societățile în care ființa umană e în centru, indiferent de situația lor geografică[20].
Documentul se înscrie mai întâi și formal „spațiului juridic comun” stabilit în cadrul Consiliului Europei și întemeiat pe Convenția europeană a drepturilor omului, jurisprudența acesteia, respectiv aplicarea a circa 25.000 de hotărâri ale Curții Europene a Drepturilor Omului (CEDO) și se adaugă celor peste 200 de tratate internaționale încheiate sub același auspicii, în marea lor majoritate consacrate problematicilor drepturilor umane.
Prin vocația sa mai generală însă și puternica iradiere globală pe care o implică ea constituie, într-un anumit fel, primul tratat mondial privind IA și drepturile omului și e pe deplin compatibilă cu dreptul UE în general, și cu legislația unional-europeană privind IA în particular, care reprezintă primul regulament global vizând inteligența artificială din lume și are pretenția de a reprezenta un model pentru alte contexte naționale și regionale și potențialul unui „efect de antrenament” în privința altor posibile reglementări pertinente. Documentul promovează prin referire la „valori împărtășite” la drepturile omului, democrație și statul de drept o viziune occidentală, ceea ce poate naște reticențe din partea altor zone geopolitice și înscrierea sa în ecuația confruntărilor de opțiuni pertinente. În acest fel se favorizează persistența și în privința abordării provocărilor inteligenței artificiale a unei geopolitici a drepturilor omului fondată pe diviziunea între viziunea occidentului și cea a restului lumii cu o sensibilă amprentă regională[21]. Cadrul juridic general astfel stabilit vine să răspundă „vidului reglementar” generat de avansul rapid al inovațiilor tehnologice și să completeze normele internaționale existente relative la drepturile umane, democrație și statul de drept. Se adoptă o abordare fondată pe riscuri pentru a asigura că sistemele de IA sunt dezvoltate, utilizate și demantelate cu respectarea valorilor esențiale ale societății[22]. În același timp, se propun măsuri pentru a atenua riscurile asociate sistemelor de IA încurajându-se totodată inovarea responsabilă; promovându-se principii fundamentale precum transparența și supravegherea, fiabilitatea și responsabilitatea, urmărindu-se a garanta o utilizare a IA care protejează demnitatea umană și autonomia individului, viața privată și protecția datelor personale, egalitatea și nediscriminarea. Obiectivul e acela de a crea un cadru peren și neutru, capabil a se adapta la evoluțiile viitoare ale inteligenței artificiale.
Din perspectiva drepturilor umane, se consolidează exigența evaluărilor de impact asupra drepturilor omului, se impun norme de transparență și de responsabilitate, precum și de apărare împotriva discriminării, în vederea prezervării valorilor democratice într-o lume în care inteligența artificială, noile tehnologii și inovațiile afectează întreaga viață personală și socială. Textul oferă posibilitatea de a depune plângere pe lângă autoritățile competente și în plus de a se furniza garanții procedurale, măsuri de protecție și drepturi eficiente persoanelor vizate în cadrul aplicării unui sistem de IA, atunci când acesta are un impact semnificativ asupra exercitării drepturilor fundamentale. Se preconizează realizarea de evaluări a riscurilor și impacturilor referitoare la consecințele reale și potențiale asupra drepturilor omului, democrației și statului de drept. Nu în ultimul rând, tratatul dă posibilitatea autorităților să introducă interdicții sau moratorii în privința anumitor aplicații de sisteme IA (denumite linii roșii). În același timp este de remarcat faptul că adoptarea și consacrarea ca repere/valori fundamentale de referință drepturile omului, statul de drept și democrația, noțiuni, practici și percepții relativ variabile implică un anumit grad de generalități, variabilitate și incertitudini în aplicarea concretă și emergența spre universalitate a regimului juridic pertinent[23].
Cu titlu preliminar, dar nu fără rezonanță în planul încadrării etico-juridice a implicațiilor revoluției inteligenței artificiale, e de remarcat faptul că pentru puterile globale și regionale dilema normativă constă în a opta pentru o reglementare mai strictă, care să caute protejarea drepturilor umane și a libertății utilizărilor ori a favoriza o viziune mai laxă, care să privilegieze în același timp inovarea și interesele geopolitice aferente[24]. Diferitele cadre de reglementare ale Uniunii Europene privind IA adoptate succesiv în ritm rapid și complementar – Regulamentul (UE) 2022/2065 din 19 octombrie 2022 privind o piață unică pentru serviciile digitale, Regulamentul (UE) 2022/1925 din 14 septembrie 2022 privind piețele contabile și echitabile în sectorul digital și Regulamentul (UE) 2024/1689 din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială – au ca numitor comun proteguirea și promovarea drepturilor umane. Dimpotrivă, SUA au optat pentru o aproximare reglementară mai laxă în ce privește dezvoltarea și aplicațiile IA. Se circumscrie acestei viziuni în primul rând Ordinul Executiv privind IA din octombrie 2023, în privința căruia devin clare motivele pentru care nu s-au agreat schimbări reglementare precum cele din UE (pe lângă faptul că răspund tradiției istorice a SUA de neîncredere față de oricare tip de reglementare) privesc trei aspecte, respectiv: a) teama ca o reglementare mai strictă, nu numai să nu descurajeze inovarea, ci și să orienteze investițiile spre alte regiuni; b) dat fiind că principalul motor de dezvoltare al acestei avansate tehnologii e în SUA (e vorba de întreprinderi americane) se caută să se protejeze leadership-ul din rațiuni geopolitice (mai ales să fie împiedicată China să le întreacă); c) face din aceste platforme aliatele naturale, într-un sistem de distribuție a puterii globale care favorizează SUA și deci orice încercare de a reglementa va trebui să aibă în vedere poziția acestor platforme proprii.
Așadar, regulamentul reprezintă, la fel și Convenția-cadru, un text-cheie pentru cetățenii care sunt plasați în centrul tehnologiilor de IA în dimensiunea lor inovantă, dar și un risc pentru drepturi și libertăți. Atare exigențe vor reclama ca în perioada următoare să se pună în conformitate cu 113 articole, 180 considerente și 13 anexe, la care se vor adăuga numeroase documente juridice și tehnice pe care Comisia Europeană și alte structuri ale ecosistemului AI Act sunt chemate să le producă. Toate asemenea dezvoltări reglementare și instituționale vor transforma Regulamentul (UE) 1689/2024 într-un veritabil cod european în materie, inedit și director la nivel internațional prin perspectiva reglementării orizontale și obligatorii, forța sa de atracție și statutul său de standard mondial al unei inteligențe artificiale de încredere, care pun în echilibru, proporțional între avântul inovării și imperativul respectării drepturilor omului și exigențele democratice. Și, așa cum s-a remarcat, față de mizele majore pe care le reprezintă inteligența artificială, a reuși să se impună un standard de reglementare reprezintă un veritabil succes, chiar dacă ar fi doar în materia drepturilor fundamentale[25]. Desigur, în analiza contribuției cadrului juridic unional-european privind IA la promovarea problematicii drepturilor omului trebuie să avem în vedere că dreptul UE nu are ca obiectiv apărarea drepturilor umane în general și a celor ale „omului digital” în special, ci mai degrabă promovarea competitivității întreprinderilor europene, considerând că aceasta depinde, înainte de toate, de încrederea utilizatorilor. Și aceasta cu atât mai mult cu cât de drepturile omului trebuie să beneficieze orice ființă umană, fără o legătură cu un anumit continent și economia sa.
Cele două texte juridice europene prezintă puncte comune, începând cu definiția SIA. De asemenea, ele înlătură din domeniile respective de aplicare a sistemelor de IA folosite de state în domeniul militar și dezvoltate în acest scop. Convenția-cadru precizează că ea trebuie aplicată de statele părți în activitățile „întreprinse de autoritățile publice ori de actorii privați care acționează în contul lor” (art. 3). Aceasta nu exclude totuși aplicarea textului actorilor privați care nu acționează sub controlul statului, întrucât se precizează că statele respective „răspund riscurilor și impacturilor decurgând din activitățile desfășurate în cadrul ciclului de viață al sistemelor de inteligență artificială de către actorii privați”. Convenția-cadru nu urmează abordarea reținută de UE, respectiv cea fondată pe riscuri enunțând obligații generale și insistând în special asupra protecției statului de drept și a integrității proceselor democratice (art. 5), cu precădere în ceea ce privește dreptul la opinia liberă în cadrul electoral. Este dovedit că sistemele de inteligență artificială pot aduce atingere neutralității informației, mai ales pe platformele de rețele sociale. În fine, la fel ca regulamentul UE, tratatul Consiliului Europei acordă o anumită suplețe autorităților statelor în utilizarea IA. Chiar dacă interdicția de a recurge la identificarea biometrică rămâne principiul, Convenția-cadru pare mai permisivă decât Regulamentul (UE) 2024/1689, întrucât permite statelor să nu aplice textul în cadrul activităților desfășurate în scopuri de siguranță națională, cu condiția totuși ca să se respecte dreptul internațional aplicabil în materie (art. 3).
Pe scurt, tratatul Consiliului Europei e mai scurt și mai puțin tehnic decât IA Act, dar se alătură acestuia prin enunțarea de obligații și interdicții comune, de exemplu prin luarea în calcul a grupurilor vulnerabile ori interdicția procedeelor discriminatorii.
7. O posibilă structurare acelei de-a patra categorii (succesive) de drepturi umane: „drepturile omului digital în contextul provocărilor IA”. Atingerea stadiului de generalizare a IA și preluarea de către mașină a tuturor funcțiilor cognitiv-practice de până acum sau ale umanității „naturale” echivalează practic cu apariția și acreditarea, inclusiv în lumea juridică a unei noi entități existențiale, dincolo de „omul situat în contextul utilizării inteligenței artificiale” și care ar putea purta denumirea de „om artificial”, și pretenția de inedit subiect de drept. Desigur, și aceasta din urmă ar cunoaște, ca fenomen socio-uman, mutații esențiale, de natură, vorbindu-se, mai degrabă, de un post juridism. Noțiuni existențiale ale lui IUS, „inventat” de romani și perpetuat până în secolul al XXI-lea, de exemplu, precum cele de persoană și bun s-ar transforma (tehnologic) în cele de profil și, respectiv, informație și ar presupune reconceptualizări (juridice) corespunzătoare. Până aici situația reală care ar impune una atare efort juridico-imaginativ, ajustările și dezvoltările în planul dreptului drepturilor omului s-ar putea concentra asupra garantării conceperii și utilizării unei IA benefice pentru om și aflată sub permanentul control al acestuia, ceea ce implică rămânerea acesteia la funcția de instrument acțional și la stadiul de bun juridic, comun și special, înscris în patrimoniul universal al umanității. Evoluțiile normative și percepțiile doctrinale prefigurează în acest sens emergența unor noi drepturi și principii juridice, adecvate actualului context de manifestare a problemei IA, precum chestiunea existențială. Ele pot constitui o a patra categorie de drepturi umane apărute și afirmate în contextul tranziției digitale a societății și al confruntării omului cu provocările inteligenței artificiale. Așadar, una care ar putea cuprinde drepturile omului digital în contextul provocărilor IA.
7.1. Dreptul uman la utilizarea benefică a inteligenței artificiale. Cadrul drepturilor umane, în complexitatea și multidimensionalitatea semnificațiilor sale reprezintă un fundament esențial deopotrivă pentru exploatarea și valorificarea benefic uman, a enormului potențial al IA, ca una de încredere și centrată pe om și, respectiv, al prevenirii și atenuării riscurilor considerabile pe care le comportă pentru om și societate. Într-o atare ecuație se desprinde, în mod complementar și interdependent, pe de o parte, dreptul la utilizarea benefic umană a sistemelor de IA și, în același sens, dreptul la protecția omului și a drepturilor sale, față de riscurile și amenințările pe care le angrenează noile tehnologii. În acest context problematic s-a formulat teza recunoașterii și garantării unui drept uman la utilizarea IA, care ar implica o nelimitare a folosirii noilor tehnologii, cu atât mai mult cu cât ar însemna nu numai o lipsă în dezvoltarea economică și tehnologică, ci și o posibilă violare a drepturilor umane, stabilind asemenea cerințe într-o nouă generație de prerogative internaționale, menite să promoveze bunăstarea persoanelor, ajungându-se la poziționarea protejării utilizării inteligenței artificiale ca drept uman, ținând seama de provocările cu care se confruntă în prezent, precum și de schimbările pe care valorificarea sa axiologică și legală le-ar putea presupune în societatea postmodernă[26].
Desigur, recunoașterea accesului la binefacerile inteligenței artificiale ca un drept uman generează un set consistent de chestiuni și provocări ce își așteaptă explicitarea și într-o anumită măsură chiar rezolvarea. Aspectul etic al utilizării sale devine prioritar în această privință, sens în care va fi esențial ca, pe lângă conformarea cu cadrul juridic aferent, să se încorporeze reguli etice și standarde tehnologice adecvate. De asemenea, se impune o inteligență artificială circumstanțiată și adaptată, una prin excelență etică, inclusivă și sobră, utilizată în beneficiul societății, economiei și al mediului. În același timp, tendința evoluției spre o IA generalizată și chiar forte necesită prefigurarea, acreditarea și respectarea unui context etico-juridic de coexistență între ființa umană și replicile sale artificiale și manifestările lor. Este vorba de un proces complex, grăbit de dinamica extraordinară a avansurilor tehnologice, care reclamă baze juridico-etice adecvate, pe care să se clădească un edificiu de încredere și instrumente de integrare armonioasă, neinvazivă a progresului tehnico-științific în mediul uman și noile sale ipostaze de dezvoltare.
7.2. Dreptul primordial la existență al omului ca specie între specii. Alături de criza ecologică multidimensională, dar în termeni mai radicali și cu un ritm mult mai rapid, avântul IAG (fie și într-un cadru mai mult sau mai puțin ipotetic!), o suprainteligență artificială pune în discuție însăși existența umană și creează riscul dispariției omenirii ca specie între specii[27]. Este de domeniul evidenței că între două specii, cea mai inteligentă controlează pe cealaltă(e); dacă vom construi noi roboți încă și mai inteligenți decât un om, aceia vor constitui o nouă specie, pentru că ei pot face copii după sine, în mod autonom, se pot multiplica deci în fel propriu și structura în ecosistemul planetei. Și dacă obiectivele, scopurile sale nu merg în sensul nostru uman va fi dificil de conviețuit, se va naște o concurență și o competiție de supraviețuire cu deznodământ previzibil și perdantul ultim este ușor de bănuit. Astfel, această tehnologie ar putea cauza extincția umanului ca specie între specii și cea de-a 6-a extincție de masă a vieții pe planetă, prevăzută până acum pentru o bună parte a speciilor biodiversității se va extinde și asupra omului, prima specie din istoria naturală a Terrei care a devenit o forță geologică în transformarea naturii, dar și singura care și-a creat una de înlocuire, prin eliminarea din ecuație (formula) existențială teriană. Desigur, e greu, aproape imposibil de acceptat ideea că în mod voit, conștient se poate trece la crearea unei noi specii, mai inteligente decât noi sau la oricare alte aplicații ale noilor tehnologii care pot crea dezavantaje disproporționate în aport cu beneficiile scontate, cea ce nu e însă cu totul exclus. De aceea, calea sigură o reprezintă controlul în interes uman a acestora prin intermediul instrumentelor normative existente, cu un pronunțat caracter preventiv și anticipativ sau a altora noi, elaborate și adoptate în acest context.
7.3. Principiu fundamental imperativ. Intangibilitatea drepturilor umane și particularizarea exercitării lor în conceperea, dezvoltarea și utilizarea tehnologiilor de inteligență artificială. În virtutea acestei reguli, având în vedere perspectiva apariției, afirmării și evoluției formelor și aplicațiilor inteligenței artificiale, utilizarea sa implică drept imperativ neafectarea drepturilor umane, care trebuie să fie pe deplin respectate și apărate. Indiferent de circumstanțe și de stadiul de desfășurare a noilor tehnologii nu se pot adopta decizii care să deroge de la aceste drepturi fundamentale, inerente ființei umane (de la care nu se poate deroga în materie de IA) ori care să le limiteze. Toate dispozițiile de drept internațional, unional-european sau național care le-ar limita ori suspenda sunt nule. Așadar, în ansamblul lor, drepturile umane devin drepturi intangibile, nederogabile, componente ale identității juridice a umanității, care implică ideea de indisponibilitate, de imutabilitate, ceea ce transformă normele aferente la nivel de reguli de jus cogens în planul dreptului internațional și de identitate constituțională în cel național. Protecția și conservarea ființei umane în integralitatea statutului său ca element natural inteligent și creator și ca subiect de drept originar și unic prin aceasta implică, în contextul manifestării dezvoltărilor inteligenței artificiale, respectarea întocmai și în totalitate a drepturilor și libertăților fundamentale. Pentru acesta se impune, pe de o parte, un fel de aggiornamento a drepturilor fundamentale prin prisma exigenței respectării cerințelor lor în materie de IA și adaptării conținutului și semnificațiilor la noile provocări, având în vedere că aceasta modifică comportamentele umane, remodelează societatea și influențează câmpul și substanța multor drepturi fundamentale[28], iar, pe de alta, apariția, consacrarea și garantarea unor drepturi noi. În același timp, drepturile omului inhibă anumite folosințe ori favorizează altele, iar dezvoltarea noilor aplicații tehnologice poate contribui la o mai deplină exercitare a drepturilor umane. Într-o atare perspectivă, tehnologiile, în conceperea și folosirea lor, antreprenorii, actorii și utilizatorii de inteligență artificială trebuie să respecte exigențele statului de drept, drepturile omului și valorile democratice de-a lungul întregului ciclu de viață al sistemelor de noi tehnologii. Aceste drepturi și valori pot fi distribuite întrei ansambluri interdependente: cele aferente promovării demnității, cele cere servesc prezervării societății și cele care permit favorizarea bunăstării[29].
Ca o concluzie, provocările generate de apariția, avântul și tendința de generalizare a aplicațiilor inteligenței artificiale marchează profund materia drepturilor umane, ridicând intangibilitatea lor la rangul de regulă imperativă absolută, ca instrument de asigurare a unicității, singularității și inalienabilității ființei umane, ca subiect originar de drept și ca valoare juridică esențială, presupunând o reacție adecvată a corpusului fundamentalist existent, la o asimilare a particularităților și expresie a noilor exigențe normative și de emergență a noi drepturi umane, cele ale erei inteligenței artificiale. În același timp, limitarea exercițiului drepturilor omului prin utilizări ale IA nu se poate face decât în condiții strict reglementate, cu caracter temporar și proporțional.
7.4. Dreptul și responsabilitatea umane de a controla IA. Dintr-o perspectivă normativă și într-o atare măsură dreptul trebuie să răspunsă la noi și unele total inedite provocări ce se ridică astfel și să ofere răspunsuri juridice adecvate, uneori chiar avangardiste. Unul dintre acestea, formulate deocamdată la nivel doctrinal, constă în recunoașterea imperativului controlului uman asupra inteligenței artificiale ca un nou drept, și corelativ ca o responsabilitate umană etico-juridică spre a garanta supravegherea umană în alcătuirea și dezvoltarea respectivelor aplicații/sisteme în scopul de a evita afectarea altor drepturi umane existente[30] și în jurul căruia să se dezvolte într-un sistem propriu alte drepturi umane asupra IA. Este vorba, așadar, de garantarea pe această cale a protecției drepturilor și intereselor ocrotite juridic în scenariile IA; autonomia și capacitatea de învățare a respectivelor sisteme face iminentă necesitatea de a menține și de a dezvolta un control uman adecvat și eficient, în diferitele procese de creare și de dezvoltare a inteligenței artificiale, cu obiectivul de a evita afectarea drepturilor umane, și în caz de producere a sa, a se putea remedia. Se urmărește mai ales a garanta valori fundamentale deja ocrotite, precum egalitatea, viața privată, libertatea de exprimare, nediscriminarea, procesul echitabil ș.a. Ca urmare, semnificația controlului uman ca drept fundamental se referă la sensul său instrumental, adică se justifică spre a proteja drepturi intrinseci ființei umane, în cadre care nu sunt încă reglementate din punct de vedere juridic, precum cele ale IA. Într-adevăr, autonomia și capacitatea de învățare a respectivelor sisteme face iminentă necesitatea de a le controla uman, ca un concept teoretic și juridic în construcție, ce impune spre definitivare dezbateri și analize corespunzătoare.
O primă chestiune vizează asigurarea unei concordanțe între ritmul avansurilor tehnologice ale inteligenței artificiale și cel al reacțiilor juridice pertinente. În mod tradițional se considera că e deosebit de important ca dreptul să răspundă necesităților și evoluțiilor sociale și tehnologice, înainte ca ele să producă daune iremediabile și vulnerabilitate a drepturilor umane. Riscul ca progresul tehnico-științific să iasă de sub controlul uman și să afecteze umanitatea devine o preocupare generală, în primul rând din partea specialiștilor domeniului, cei mai conștienți în acest sens[31] și mai ales în contextul bulversărilor întrevăzute de emergența rapidă și masivă a aplicațiilor IA.
De asemenea, se impune a delimita implicațiile juridice pe care le presupune recunoașterea controlului uman precum un drept, în ceea ce privește definirea titularului său, ce poate cere ca garanții și precum noi și inedite prerogative ale autorităților. În mod corelativ, în virtutea lui se nasc îndatoriri pentru stat și particulari, în scopul de a garanta noul drept în scenariile de inteligență artificială. E vorba, de exemplu, de definirea responsabilităților statale menite să-l garanteze ca atare; nu mai puțin se vizează restructurarea instituțională aferentă delimitării autorităților care să-și asume inspecția, supravegherea și, la nevoie, sancțiunea aferentă participanților la producția și dezvoltarea IA. Un întreg sistem de „răspundere/reparare/asigurare” specifice își așteaptă prefigurarea, consacrarea și aplicarea. Ca o concluzie, recunoașterea controlului uman al inteligenței umane ca nou drept fundamental propusă în acest mod, rămâne o cale mai puțin explorată, dar care se prefigurează ca o ipoteză fezabilă de reacție juridică adecvată la noile evoluții tehnologice revoluționare și care presupune ca prim pas extinderea de către state a protecției drepturilor umane în scenariile IA, sens în care controlul uman reprezintă un instrument important.
În definitiv, perspectiva pentru om de a păstra controlul asupra IA rezidă, în special, din punct de vedere tehnic în capacitatea sa de a arbitra între diferitele IAG, prin validarea conformității a cinci axe privind originea datelor, modalităților de tratament, condițiile folosirii, finalitățile și superiorizarea sa[32].
Un aspect concret și deosebit de actual și relevant al acestei probleme îl reprezintă implicațiile noilor tehnologii emergente în privința armelor letale autonome, respectiv locul umanului în folosirea forței în relațiile internaționale. Progresele tehnologice stimulează dezvoltarea de sisteme de arme autonome fără control uman semnificativ (meaningful human control), delegând deciziile de viață și de moarte („dreptul inerent la viață”) mașinilor, care determină unde, când ori contra ce adversari vor fi utilizate, mai degrabă decât un operator uman. O cursă a armamentelor dotate cu IA trebuie împiedicată, alături de consacrarea interdicției de producere, de proliferare și de utilizare a armelor autonome ofensive ce acționează fără control uman semnificativ.
Înscrierea pe ordinea de zi a Adunării Generale a ONU a acestei problematici, recunoașterea urgenței abordării și rezolvării sale și emergența în diferite instanțe internaționale a ideii elaborării și adoptării unui tratat internațional privind interzicerea proliferării și utilizării armelor letale autonome și reglementarea aspectelor pendinte de dreptul internațional umanitar[33]. Din această perspectivă, recunoașterea și garantarea controlului uman asupra folosirii forței în general și cel vizând dezvoltarea armelor autonome în special reprezintă un aspect important al dreptului esențial de control uman al IA[34]. Păstrarea controlului uman și exercitarea sa prin intermediul dreptului reprezintă o preocupare centrală și un element esențial în materia regulilor războiului și a mijloacelor juridice de garantare a păcii[35]. Dezvoltările pertinente și necesare la nivelul dreptului internațional pe calea încheierii de noi acorduri internaționale angajante ar trebui să stipuleze și din perspectiva imperativului controlului uman, în acest sens, de exemplu, că sistemele de IA nu vor înlocui niciodată umanii în deciziile letale finale și că ofițerii umani își vor conserva libertatea deplină și responsabilitatea morală și legală în privința oricărei recomandări de țintire (ciblaj) făcută de tehnologiile de inteligență artificială.
7.5. Dreptul la securitate față de riscurile tehnologiilor de IA. Ca expresie a acestui drept existențial inalienabil și în cele din urmă indispensabil conservării identității ca specie între specii decurge și dreptul la securitate față de riscurile generate de noile tehnologii, și cu precădere cele așteptate de la IAG. Radicalitatea problemei impune schimbarea paradigmei securitatea prin reglementare (normare) anticipată, într-o abordare preventiv-precauțională a soluționării sale. Dacă până acum, în principiu, normele de securitate erau stabilite și adoptate juridic învățând din experiențele anterioare și (eventual) erorile comise, în situația tehnologiilor de superinteligență artificială, în special, această perspectivă devine inoperabilă, având în vedere consecințele imprevizibile, distructibile și ireparabile pe care le poate genera. Se impune, în acest context, trecerea de la o atitudine reactivă la una anticipativă, securitară, proactivă. Iar acest rol de a garanta securitatea existenței speciei și integrității civilizației sale nu poate fi asigurat decât de o normă prestabilită, fie ea etică sau mai ales juridică, dar riguros respectată. Dacă se instituie și se respectă norme de securitate adecvate și eficiente care obligă operatorii domeniului să demonstreze că concep, construiesc și utilizează instrumente (sisteme) față de care păstrează controlul responsabil și eficace. De aici decurge, în cele din urmă și în primul rând ca un imperativ securitar, nevoia de reglementare, având în centrul său adevărul că nu este în interesul nimănui, individual și colectiv de a inventa și produce o nouă specie, mai inteligentă, care să o înlocuiască pe cea umană, cel puțin în virtutea instinctului de supraviețuire și de respingere a celui de autodistrugere. Și în același registru securitar se înscrie și abordarea promovată de cadrul normativ în curs de construire și abordare.
Regulamentul (UE) 2024/1689 din 13 iunie 2024 oferă perspectivele unui standard mondial al IA de încredere, ca prim text juridic de natură orizontală ce stabilește exigențele reglementare obligatorii pentru principalii operatori (inclusiv pentru autoritățile publice) ai lanțului de valoare globală a sistemelor de IA cele mai de risc puse pe piață ori utilizate în Uniune[36]. Ca act de reglementare el poartă dimensiunile specifice dreptului IA: pe de o parte, se înscrie în mod natural în „ecosistemul dinamicii mondiale a tehnologiilor de inteligență artificială”, iar, pe de alta, și tot în același fel „își impune marca normativă” sprijinindu-se și exprimând în acest domeniu politica europeană de securitate a produselor și metodologia noului cadru legislativ („New Legislative Framework” – NLF) fondată pe abordarea riscurilor. În acest sens se instituie o veritabilă „schemă de conformitate ex ante alimentată de norme tehnice și un cadru ex post de supraveghere a pieței, de-a lungul întregului ciclu de viață a sistemelor de IA”. În același timp, așa cum s-a remarcat, în centrul reglementării se află conceptul de risc, care se „emancipează parțial în litera sa” de acquis-ul NLF și care include, alături de riscurile pentru „sănătate și securitate”, pe cele vizând „drepturile fundamentale”, „valorile Uniunii”, precum și respectul democrației și al statului de drept, ceea ce reflectă o „înclinare legislativă umanistă”, care prezintă semnificații importante din unghiul problematicii promovării unei noi categorii de drepturi ale omului, cea de-a patra, centrată pe ocrotirea omului ca speciae și individ față de perspectivele apariției unui „alter ego” artificial, autonom și cu scopuri proprii, care pot deveni contrarii și distructive pentru o condiție umană autentică, tradițională[37]. Din întreaga concepție a actului normativ fondator se degajă perspectiva condiției umane și a drepturilor omului, acesta fiind plasat în centul tehnologiilor de inteligență artificială în dimensiunea lor inovantă, dar și de risc pentru drepturile și libertățile fundamentale.
Cadrul juridic european uniform cu vocație universală de dezvoltare, introducerea pe piață, punerea în funcțiune și utilizarea de sisteme de inteligență artificială este construit pe și degajă exigențele unui drept esențial la securitate umană față de riscurile aferente inteligenței umane, deși neenunțat expres și consacrat ca atare. Obiectivele declarate sunt clare și evidente în acest sens, constând în:
– a veghea ca sistemele de IA introduse pe piață să fie sigure și să respecte legislația în vigoare în materie de drepturi fundamentale, valorile UE, statul de drept și durabilitatea de mediu;
– a garanta securitatea juridică în scopul de a facilita investițiile și inovația în domeniu;
– întărirea guvernanței și aplicarea efectivă a legislației existente în materie de exigențe de securitate aplicabile sistemelor de inteligență artificială și de drepturi fundamentale;
– facilitatea dezvoltării unei piețe unice pentru aplicațiile IA legale și sigure și a împiedica fragmentarea pieței. Pentru aceasta, Regulamentul IA cadru a stabilit interdicția anumitor practici, exigențe specifice aplicabile sistemelor de IA de înalt risc, reguli armonizate în materie de transparență aplicabile sistemelor de IA destinate să interacționeze cu persoane umane, celor de recunoaștere a emoțiilor și de categorizare biometrică și sistemelor de IA generativă utilizate pentru a genera ori manipula imagini ori conținuturi audio sau video. Nu în ultimul rând, întreaga abordare astfel reglementată și promovată trebuie să țină seama de rezultatele benefice asupra protecției sociale și de mediu pe care le poate aduce inteligența artificială, precum și de nivelurile de risc ori de consecințele negative pe care le poate avea această tehnologie.
Coerența e asigurată cu Carta drepturilor fundamentale a Uniunii și dreptul derivat al UE în domeniul protecției datelor, a consumatorilor, nediscriminării și egalității de gen. Se completează dreptul existent în materie de nediscriminare stipulându-se exigențe ce vizează reducerea la minimum a riscului de discriminare algoritmică, însoțite de obligații vizând gestiunea riscurilor, determinarea și controlul uman de-a lungul întregului ciclu de viață al sistemelor de IA. Caracteristica esențială a statutului juridic astfel conferit IA este aceea ca ea să fie „de încredere și centrate pe om”, asigurând „un nivel ridicat de protecție a sănătății, a siguranței, a drepturilor fundamentale consacrate în Carta drepturilor fundamentale a Uniunii Europene, inclusiv a democrației, a statului de drept și a mediului, de a proteja împotriva efectelor dăunătoare ale sistemelor de IA” (considerentul 1).
7.6. Dreptul și îndatorirea de a utiliza IA spre binele comun. În doctrina mexicană de profil s-a afirmat și argumentat nevoia consacrării unui drept uman la folosirea inteligenței artificiale[38], și aceasta în aceeași cheie a respectării drepturilor umane întrucât limitarea ei ar însemna nu numai o mare pierdere în privința dezvoltării economice și tehnologice, ci și o posibilă încălcare a îndrituirilor fundamentale. Stabilind o atare utilizare printr-o nouă generație de reglementări internaționale, care să o garanteze, protejeze și să promoveze pe această cale bunăstarea persoanelor și acționând spre poziționarea ei precum un drept uman și exprimarea provocărilor pe care le implică, se întrevede o altă inedită dezvoltare în materie. Folosirea aplicațiilor inteligenței artificiale cu caracter constant, ușor accesibilă și gratuită, chiar cotidiană de cât mai multe persoane, degajă ideea recunoașterii IA ca și un drept uman, iar acest lucru ar putea presupune ca fiecare individ să se bucure de un acces just la tehnologiile respective. Aceasta ar favoriza și îmbunătățirea semnificațiilor și a exercitării celorlalte drepturi umane, cum ar fi cele economice, sociale și culturale, depășirea îngrădirilor accesului la informație, ameliorarea asistenței sanitare și să se faciliteze accesul la educație. Spre a se putea reuși în această privință e fundamental să se elimine îngrădirile digitale, asigurându-se accesul la tehnologii și garantându-se că toate sectoarele sociale, mai ales cele mai defavorizate să nu rămână în urmă în cursa pentru utilizarea IA, în beneficul fiecărei persoane și a binelui comun.
8. Un posibil pact al drepturilor „omului digital” în contextul provocărilor inteligenței artificiale. Un instrument util de guvernare benefică a unei atare situații complexe, evident tranzitorii, dar cu perspective tot mai ferme, l-ar putea constitui un al patrulea pact în materie, cel al drepturilor omului digital în contextul provocărilor inteligenței artificiale. El s-ar adăuga celor două existente și în vigoare – cel al drepturilor civile și politice și, respectiv, cel al drepturilor economice, sociale și culturale din 1966 și celui preconizat, al drepturilor umane de mediu și ar implica o particularizare a acestora la condițiile și mizele celei de-a patra revoluții științifico-tehnice. În această perspectivă el ar putea avea în vedere două funcții, cu o structurare corespunzătoare: pe de o parte, codificarea dezvoltărilor reglementărilor și inventarierea dimensiunilor drepturilor fundamentale afirmate în context digital și al inteligenței artificiale, impusă de impactul deja afirmat al noilor tehnologii, iar, pe de alta, surprinderea și exprimarea evoluțiilor specifice, într-un cadru de principii etico-juridice evolutive sub forma unor noi îndrituiri și exigențe fundamentale de genul celor enunțate anterior, care să asigure și să garanteze o IA etică, centrată pe om, aflată permanent sub control uman și utilizată exclusiv spre finalități benefice sociale și în scop exclusiv pașnice. O atare abordare ar fi impusă mai ales de imperativul evitării unui decalaj prea accentuat între ritmul extraordinar al avansurilor științifico-tehnologice și evoluția reglementărilor juridice. Tot în acest sens s-ar impune și o reformare și adecvare a conceptelor și mecanismelor juridico-instituționale aferente domeniului, în sensul imprimării unui dinamism și a unei eficiențe corespunzătoare ineditului ecosistem tehnologic pe cale a se instaura și favorizării inovării tehnice.
9. Concluzii. La nivelul actual de dezvoltare al reglementării juridice în materie și al abordării problematicii juridice aferente se constată absența analizei și practicii coerente ale drepturilor omului în elaborarea și transferul noilor tehnologii. Desigur, documentele internaționale în vigoare privind drepturile omului nu cuprind prevederi directe, exprese ori specifice referitoare la IA, dar textele unor articole pot fi interpretate, iar semnificațiile lor raportate la anumite cadre de implicare a acesteia. Este cazul, de pildă, al dispozițiilor referitoare la dreptul la viață privată (precum cele aferente art. 17 din Pactul internațional din 1966 cu privire la drepturile civile și politice, art. 8 din Convenția europeană a drepturilor omului sau cele pendinte art. 11 din Convenția americană privind drepturile umane din 1981) și în virtutea cărora se poate considera că aplicațiile IA includ culegerea de date personale și supravegherea. Totuși, pentru a stabili cadrul juridic care sprijină apărarea utilizării inteligenței artificiale ca drept uman se pot invoca și alte texte internaționale în domeniu, precum art. 15 (1) lit. b) din Pactul internațional cu privire la drepturile economice, sociale și culturale din 1966 relativ la „dreptul fiecăruia… de a beneficia de progresul științific și de aplicațiile sale”, sau articolul 14 – dreptul la beneficiile culturii, din Protocolul adițional la Convenția americană privind drepturile umane în materia drepturilor economice, sociale și culturale (San Salvador, 1988) și care stipulează că „Statele părți… recunosc dreptul tuturor persoanelor de a se bucura de progresul științific și tehnologic”, ceea ce presupune, într-o interpretare actualizată, și folosirea tehnologiilor de IA. Pe măsură ce aceasta avansează e necesar să se analizeze amploarea și profunzimea implicațiilor sale ca drept fundamental întrucât cadrele juridico-politice internaționale existente, începând cu fundamentulproclamat prin Declarația universală a drepturilor omului din 1948, ne oferă o bază solidă spre a aborda problemele generate de folosirea noilor tehnologii și aspectele vizând legăturile sale cu protecția drepturilor omului. Cu atare repere juridice se poate garanta, cel puțin pentru început, ca cercetările vizând și utilizarea IA să se desfășoare cu exigențele respectării demnității umane, protecției vieții private, asigurării egalității, recunoscându-se un drept al IA pentru ca alături de folosirea sa, acesta promovează și protejează alte drepturi fundamentale. Spre exemplu, deși Declarația universală din 1948 nu se referă la IA, există totuși în conținutul său elemente ce oferă o bază pentru a recunoaște drepturile care au legătură cu inteligența artificială precum prevederile art. 3 care stabilesc că „Orice ființă umană are dreptul la viață, la libertatea și la securitatea persoanei” ori prevederile art. 9 din Pactul internațional privind drepturile civile și politice relative la libertatea și securitatea persoanei ceea ce ar putea include, într-o interpretare teleologică, protecția împotriva folosințelor dăunătoare ale IA. Recunoașterea acesteia din urmă ca un drept poate ajuta la promovarea egalității și îmbunătățirii vieții persoanelor sub diferite aspecte relevante pentru o seamă de drepturi umane clasice.
Fără îndoială, nu poate exista un drept al inteligenței artificiale în afara cunoașterii și garantării intangibilității și a particularităților manifestărilor în privința conceperii și utilizării noilor tehnologii a drepturilor umane, exigențelor statului de drept și valorilor unei societăți democratice. Dimpotrivă, el își începe cristalizarea, își continuă afirmarea și își definește finalitățile tocmai pornind de la imperativul intervenției dreptului spre a asigura controlul și consacra responsabilități umane asupra desfășurării aplicațiilor de IA, de-a lungul întregului ciclu de existență al sistemelor aferente. Impactul asupra drepturilor umane și a dreptului lor presupune și generează o „fundamentalizare” a reglementărilor juridice pendinte domeniului exprimată deopotrivă prin particularizarea semnificațiilor normelor și principiilor existente la provocările inedite apărute în acest context și apariția și afirmarea de reguli, concepte și instituții noi sau inovatoare. Într-o abordare profund umanistă, principiul fundamental în soluționarea problematicii pe care o generează provocările IA în planul drepturilor omului ar trebui să exprime imperativul că IA are potențialul de a profita umanității și acesta s-ar impune să fie unicul obiectiv al dezvoltării aplicațiilor ei.
De remarcat, în acest context de preocupări, apariția în România a primei jurisprudențe relevante în materie, reprezentată de Hotărârea Curții Constituționale nr. 32 din 6 decembrie 2024 privind anularea procesului electoral cu privire la alegerea Președintelui României din anul 2024[39], în privința impactului noilor tehnologii asupra drepturilor electorale. Înscrierea în „blocul de constituționalitate” a protejării față de efectele negative ale utilizării netransparente a tehnologiilor digitale și a inteligenței artificiale „atât a drepturilor electorale ale cetățenilor (dreptul la vot și dreptul de a fi ales), cât și fundamentele ordinii constituționale, premise esențiale pentru menținerea caracterului democratic și de stat de drept al României” (în special pct. 14 și 21), se circumscriu viziunii promovate de Convenția-cadru a Consiliului Europei privind inteligența artificială și drepturile omului, democrație și statul de drept din 17 mai 2024 și documentele pertinente ale UE.
Ca principiu, drepturile umane fundamentale nu trebuie să fie afectate de rezultatele inovării tehnologice, sau dacă se întâmplă, să fie într-o cât mai mică măsură, și aceasta nu în substanța ci, eventual în exercițiul lor, temporar și proporțional, oricât de seducătoare vor fi acestea, întrucât primele sunt și rămân dimensiuni inconfundabile și ireductibile ale ființei umane și repere de desfășurare ale progresului economico-social și tehnologic. În același timp, sistemul lor se completează în mod articulat și independent în semnificații cu valorile umane ce trebuie să ghideze dezvoltarea noilor tehnologii digitale și de inteligență artificială, respectiv: incluziunea, respectul, umanismul, dezvoltarea individuală, transparența, colaborarea, accesibilitatea, durabilitatea și armonia.
O IA benefică umanului (care se impune să constituie obiectivul progreselor promițătoare ale noilor tehnologii) nu poate merge împotriva drepturilor fundamentale precum dreptul la viață, la egalitate ori la libertate care fac parte din coloana vertebrală a unei IA responsabile și singura admisibilă. În același timp, niciun drept nu este absolut și uneori trebuie să intervină arbitraje între diferitele drepturi în cadrul societății, cât și între interesele individuale și colective.
Asigurarea faptului că sistemele de IA dezvoltate respectă drepturile umane presupune elaborarea și utilizarea unor instrumente adecvate realizării unui atare obiectiv. Unul dintre ele îl constituie evaluarea impactului acestora asupra drepturilor omului, care să definească parametrii necesari pentru a anticipa și a previziona impacturile respective ale proiectelor de inteligență artificială asupra drepturilor, după caracteristici proprii (tipul de IA, datele utilizate, gradul de aplicabilitate ș.a.) și domeniul de aplicare (sănătate, educație, imigrare etc.). Odată aceste efecte identificate se impun elaborarea și aplicarea de strategii menite să reducă riscurile detectate până la un grad considerat ca acceptabil și aceasta înainte de implementarea sistemului de IA. În același timp, ineditul situațiilor create impune, la rându-i, rezolvări inovante. Așa, de pildă, în fața manipulărilor, în special politice, efectuate grație aplicațiilor de inteligență artificială generativă de texte ori imagini, modurile de protecție și de reglementare sunt încă dificil de definit. E vorba cu precădere de a ști dacă aceasta trece numai prin negocieri umane ori poate fi integrată în însăși IA. Așadar, o inteligență artificială etică prin construcția sa care, în afara dificultăților tehnice pe care le implică în realizare presupune obținerea unui consens internațional asupra unui sistem de valori apropriate și a reconcilia cu aceasta natura profundă a învățării mașinii, al cărei scop e a face predicții reflectând starea obiectivă (și uneori regretabilă) a datelor și în mod inevitabil a prejudecăților lor[40].
Aceste evoluții conceptuale și reglementare converg spre constituirea unei noi categorii, generații de drepturi ale omului, cea a „drepturilor-sistem”, succesivă drepturilor-libertăți, drepturilor patrimoniale și drepturilor sociale și din ultima perioadă celor de mediu „menită să organizeze dimensiunea sub-adiacentă a universului nostru digital”[41]. O atare provocare teoretică de conceptualizare și de necesitate practică de promovare a „noilor drepturi” s-a impus în contextul perspectivelor de evoluție a aplicațiilor de inteligență artificială anunțate post-stadiului IA generativă (2022). Dacă anterior acestui moment se aprecia că, departe de a incita la inventarea de noi drepturi, revoluția tehnologică invită mai degrabă la o mai bună devoalare a ceea ce formează „subsolul”, fundamentul valorilor universale ale drepturilor omului[42], revoluția ChatGPT și perspectivele IAG pentru un viitor apropiat recalculează datele problemei. Prin „inteligența artificială generalizată” teza fondatoare a însuși conceptului de drepturi umane a întemeierii acestora pe ideea unei naturi umane universale e pusă în discuție, ceea ce impune și regândiri și reașezări corespunzătoare. Ritmul extraordinar de evoluție accelerată a noilor tehnologii impune o cadență adecvată a dezvoltărilor juridice, iar o atare nouă categorie de drepturi (umane?) devine ilustrativă. Identificarea, analiza și precizarea acestor principii și drepturi permit reglarea și încadrarea juridică a activităților IA, iar aceasta poate fi mobilizată spre a promova și consolida drepturile umane și favoriza respectarea deplină și aplicarea lor efectivă. Așa, de exemplu, instrumentele informatice pot detecta deciziile (umane ori automatizate) părtinitoare ori supraveghea și detecta apariția de discriminări. În privința statului de drept și cea a democrației, aplicațiile de IA pot să contribuie la îndiguirea difuzării informațiilor false ori la îmbunătățirea eficienței procedurilor administrative, ajutând autoritățile publice spre a răspunde mai bine la nevoile de guvernanță și la exigențele respectării drepturilor umane.
Impunerea problematicii impactului noilor tehnologii asupra drepturilor fundamentale a generat și preocupări privind adaptarea constituțiilor, a dispozițiilor lor pertinente în acest sens. Ca o primă soluție s-a invocat astfel mai întâi „principiul constituționalismului viu”, care presupune o interpretare dinamică a legii fundamentale și o adaptare a prevederilor sale de-a lungul timpului spre a tratata problemele neprevăzute. Dezvoltările creatoare ale jurisprudenței pertinente au generat din ce în ce mai multe slabe concluzii relevante, dar în aceeași logică a nevoii de răspuns adecvat la marile provocări ale noilor realități, a radicalității și rapidității transformărilor implicate de cea de-a 4-a revoluție științifico-tehnică au apărut și reflecțiile vizând revizuiri corespunzătoare ale textelor constituționale. Așa se face că propuneri oficiale de revizuire a legilor fundamentale să cuprindă și aspecte ținând de reflectarea avansurilor noilor tehnologii; de exemplu, inițiativa spaniolă de acest gen din 29 decembrie 2020 se referea și la configurarea unui drept autonom la protecția datelor cu caracter personal, incluzând și așa-zisul „drept la uitare”. Propunerea de lege constituțională relativă la Carta inteligenței artificiale și a algoritmilor (nr. 3084, depusă la 15 ianuarie 2020 la Adunarea Națională) a unui deputat francez mergea și mai departe și preconiza înscrierea în preambulul Constituției Franței din 1958 a unei referiri la textul și edictarea unei Carte a IA. Ca o reacție tehnică la asemenea perspective, asistăm la elaborarea și experimentarea de proiecte și de considerații ce presupun încorporarea unei contribuții democratice în dezvoltarea IA, ca etapă semnificativă pentru alinierea modelelor de limbaj avansate cu valorile umane. Este cazul „inteligenței artificiale colective”, considerată o metodologie inovatoare dezvoltată spre a garanta că sistemele de IA funcționează în acord cu principiile normative explicite, în mod similar unei constituții riguroase a comportamentului unui popor. Definirea unui ansamblu de valori și de principii menite să garanteze că acțiunile IA sunt conforme normelor și așteptărilor sociale și promovarea lor asigură crearea unui nou model de limbaj al unei etici umaniste în domeniu.
În același context al reacțiilor tehnico-etice se înscrie și redactarea așa-zisei „constituții a robotului”, aferentă sistemului de colectare a datelor de antrenament, ce permite o mai bună formare a acestor mașini pentru lumea reală și prezentată ca „un ansamblu de parametri axați pe securitatea de respectat în timpul selecției sarcinilor unui robot”. Pornind de la cele trei legi ale roboticii enunțate de I. Asimov (dintre care prima stipulează că „un robot nu poate aduce atingere unei ființe umane și nici să rămână pasiv, lăsând ca o ființă umană să se expună unui pericol”), se elaborează și aplică reguli de securitate care cer, printre altele, ca nicio mașină să nu efectueze sarcini care implică oameni, animale, obiecte de tranșat ori aparate electrice și instituirea unor mecanisme de siguranță (de genul celor menite să o oprească automat atunci când forța exercitată asupra articulațiilor sale depășește un anumit prag).
Pe lângă asemenea „provocări constituționale”, se multiplică și inițiativele legislative în materie, în statele membre ale UE și în contextul amenajării implementării regulamentului (UE) 2024/1689 privind IA. Acest efort de adaptare a dreptului existent la exigențele noilor tehnologii convergente și preocupările referitoare la adoptarea de noi reglementări menite să guverneze utilizarea acestora și de îndiguire a eventualelor lor efecte negative asupra drepturilor fundamentale, prefigurează constituirea unui veritabil „drept al drepturilor omului în context digital și al inteligenței artificiale”.
DOWNLOAD FULL ARTICLE[17] R. de Asis Roig, De nuevo sobre Inteligencia Artificial y derechos humanos, în revista „Derechos y libertades” nr. 51, junio 2024, p. 37.
[18] A se vedea: M. Duțu, Inteligența artificială (IA): spre o reglementare de drept internațional, disponibil pe site-ul juridice essentials.ro, 27 martie 2024.
[19] M. Duțu, Urgența încheierii unui tratat internațional privind utilizarea inteligenței artificiale în domeniul militar, juridice essentials.ro, 30 octombrie 2024; idem, Pactul digital global (Global Digital Compact), Observatorul Dreptului Inteligenței artificiale (ODIA) – octombrie 2024.
[20] Adoptată de Comitetul Miniștrilor Consiliului Europei, la 17 mai 2024, Convenția e rezultatul unei largi colaborări internaționale. Textul a fost elaborat de un organism interguvernamental compus din reprezentații celor 46 de state membre ale Consiliului Europei și ai Uniunii Europene și 11 state non membre (respectiv: Argentina, Australia, Canada, Costa Rica, SUA, Israel, Japonia, Mexic, Peru, Vatican și Uruguay). Negocierile au beneficiat, de asemenea, de expertiza reprezentanților sectorului privat, societății civile și mediului universitar, invitați să intervină în calitate de observatori. Deschisă spre semnare la 5 septembrie 2024 la Vilnius (Lituania), cu ocazia Conferinței (informale) a miniștrilor de justiție ai Consiliului Europei, ea a primit acceptarea primelor țări: Andora, Georgia, Islanda, Norvegia, Republica Moldova, San Marino, Marea Britanie, Israel și SUA, precum și cea a Uniunii Europene. Intrarea în vigoare e prevăzută la trei luni după ratificarea sa de 5 semnatari, dintre care cel puțin trei state membre ale Consiliului Europei.
[21] B. Chelini-Pont, V. Zuber, Géopolitique des droits humains – L’universalisme mis au défi, Le Cavalier Bleu Editions, Paris, 2024, p. 231.
[22] Convenția adoptă o abordare fondată pe gravitatea și probabilitatea unui impact negativ al sistemelor de inteligență artificială asupra drepturilor umane, democrației și statului de drept, ceea ce presupune existența unei metodologii spre a ghida și a ajuta la identificarea contextelor și aplicațiilor în care desfășurarea sistemelor de IA ar putea să prezinte riscuri pentru exercitarea drepturilor umane și funcționarea mecanismelor democratice, precum și pentru a evalua și atenua aceste riscuri. Elaborarea Human Right, Democracy and Rule of Law Impact Assessment (HUDERIA) este tot în responsabilitatea Comitetului privind Inteligența Artificială (CAI) și deși nu are caracter juridic obligatoriu și că există și alte metode de evaluare a riscurilor de impact asupra drepturilor umane, HUDERIA constituie o valoare adăugată importantă întrucât combină nu numai aspectele tehnice ale IA și contextul socio-tehnic al dezvoltării și aplicării sale, ci integrează și ansamblul acquis-ului juridic al Consiliului Europei și acesta nu numai în termeni de drepturi umane, ci mai ales în cei de democrație și stat de drept.
[23] Este, în mod evident, un marker al originii europene (occidentale) a reglementărilor în cauză. Un exemplu în acest sens îl constituie accepțiunea (definiția) conferită noțiunii de „stat de drept”, care face obiectul unei dispute între UE și statele membre, în pofida unei definiții (relativ) clare și consensurile emise de Comisia de la Veneția și chiar consacrată juridic în dreptul derivat al UE (S. Platon, La protection de l’état de droit par l’Union européenne – modeste essai de clarification et de défense raisonnée, în „Revue de l’Union européenne”, octobre-novembre 2024, no. 682, pp. 565-573).
[24] M.A. Guerro, Regular la Inteligencia Artificial: ¿derechos humanos o geopolítico?, „El Sol de México” 30 de marzo de 2024.
[25] S. Merabet, Des vertus et des vices du règlement sur l’intelligence artificielle, în „Recueil Dalloz” no. 41, 28 novembre 2024, p. 2017.
[26] L.A.M. Aboytes, El derecho humano al uso de la inteligencia artificial (IA), în „Revista Latinoamericana de Ciencias Sociales y Humanidades” nr. 4(6), 2023, p. 188-196.
[27] „Cursa AGI e una a suicidului… Căutarea unei superinteligențe artificiale e o cursă a suicidului”, Max Tegmark: „La quête d’une superintelligence artificielle est un course au suicide”, entretiens par H. Pons, „Le Point”, 15 noiembrie 2024.
[28] A. Bensamoun, Vers un droit de l’intelligence artificielle fondamentaliste?, în: V. Barbé, St. Mauclair (dir.), „Intelligence artificielle&droits fondamentaux”, Editions L’Epitoge, 2022, p. 15.
[29] B. Barraud, Étique de l’intelligence artificielle, Editions L’Harmattan, Paris, 2022, p. 136.
[30] C.S. Vasquez, J.A. Toro-Valencia, El derecho al control humano: Una respuesta jurídica a la inteligencia artificial, în „Revista Chileno de Derecho y Tecnología” nr. 2/2021, p. 211-228.
[31] „Dans les mêmes circonstances, je referas la même chose. Mais je suis inquiet que la conséquence majeure de tout ça puisse être que les modèles deviennent plus intelligents que nous et prennent la contrôle” declara, la 8 octombrie 2024, cu ocazia anunțului decernării Premiului Nobel pentru fizică 2024, unul dintre laureați, Geoffrey Hinton. „Le Figaro”, 8 octombrie 2024.
[32] Th. Cassuto, L’homme arbitre de l’intelligence artificielle, „Daloz Actualité”, 24 mai 2024.
[33] Rezoluția Adunării Generale a ONU nr. 78/241 din 22 decembrie 2023 Sisteme de arme letale; Rezoluția 51/22 din 7 octombrie 2022 a Consiliului pentru Drepturile Omului al ONU privind incidentele noilor tehnologii emergente în domeniul militar.
[34] N. Bontridder, Les armes létales autonomes et le droit international humanitaire: le nécessaire contrôle humain sur l’usage de la force, în „Time to reshape the digital society: 40th anniversary of the CRIDS”, Collection du CRIDS, no. 52, Editions Larcier, Bruxelles, 2021, pp. 407-440.
[35] Așa cum s-a remarcat, ne aflăm practic la un punct major de inflexiune în domeniul conflictelor militare, la limita de a se trece de la un război dus de umani asistați de IA, la unul dus de IA asistată de oameni! O atare schimbare, când inteligența artificială ar lua decizia finală în derularea loviturilor letale fără intervenția umană, ar marca o „nouă eră sumbră pentru specia noastră”. Retragerea umanilor din procesul decizional ar putea conduce la niveluri de eficacitate incredibilă în materie de crime de război, eliminându-se posibilitatea ca ofițerii subalterni să pună în discuție ordinele pentru a opri masacrele civililor neînarmați ori a combatanților care au capitulat conform dreptului internațional (Alex Stamos, L’évolution de l’intelligence artificielle en matière de guerre risque de marquer une nouvelle ère sombre pour notre espèce, „Le Monde”, 11 novembre 2024).
[36] Regulamentul (UE) 2024/1689 al Parlamentului European și al Consiliului din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială, și de modificare a Regulamentelor (CE) nr. 300/2008, (UE) nr. 168/2013, (UE) 2018/858, (UE) 2018/1139 și (UE) 2019/2144 și a Directivelor 201490/UE, 2016/797 și (UE) 2020/1828 (Regulamentul privind inteligența artificială), JO L, 2024/1689, 12.07.2024; pentru o prezentare analitică, a se vedea: M. Ho-Dac, Premier décryptage du règlement européen sur l’intelligence artificielle (AI Acte): vers un stand mondial de l’ֹIA de confiance? În „Recueil Dalloz” no. 34, 3 octobre 2024, pp. 1678-1685; C. Crichton, Projet de règlement sur IA (II): une approche fondée sur les risques, Dalloz Actualité, 4 mai 2024.
[37] T. Christakis, T. Karathanasis, Tools for navigating the EU AI Act: (2) Visualization pyramid, 7 mars 2024, online.
[38] L.A.M. Aboytes, El derecho humano al uso de la inteligencia artificial (IA), în „Revista latinoamericano de ciencias sociales y humanidades”, nr. 6/2023, p. 188 și urm.
[39] Publicată în Monitorul Oficial nr. 1231 din 6 decembrie 2024.
[40] J. Ponce, I. Ryl, Peut-on rêver d’IA intrinsèquement éthiques ?, „Le Monde”, 11.12.2024.
[41] „Aceste principii, prin demersul universal pe care îl întreprind, ar putea să se înscrie într-o nouă generație de principii și drepturi ale omului în era digitală”. CNIL, „Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle”, synthèse du débat public animé par la CNIL dans le cadre de la mission de réflexion éthique confié par la loi pour un République numérique, dec., 2017, p. 61.
[42] E. Dubout, Les nouvelles frontières de l’egalite et le concept de nature humaine, în O. de Frouville, J. Tavernier (dir.), „La déclaration universelle des droits de l’homme 70 ans après: les fondements des droits de l’homme au défi des nouvelles technologies”, lucr. cit., p. 134.
Arhive
- aprilie 2025
- martie 2025
- februarie 2025
- ianuarie 2025
- decembrie 2024
- noiembrie 2024
- octombrie 2024
- septembrie 2024
- august 2024
- iulie 2024
- iunie 2024
- mai 2024
- aprilie 2024
- martie 2024
- februarie 2024
- ianuarie 2024
- decembrie 2023
- noiembrie 2023
- octombrie 2023
- septembrie 2023
- august 2023
- iulie 2023
- iunie 2023
- mai 2023
- aprilie 2023
- martie 2023
- februarie 2023
- ianuarie 2023
- decembrie 2022
- noiembrie 2022
- octombrie 2022
- septembrie 2022
- august 2022
- iulie 2022
- iunie 2022
- mai 2022
- aprilie 2022
- martie 2022
- februarie 2022
- ianuarie 2022
- Supliment 2021
- decembrie 2021
- noiembrie 2021
- octombrie 2021
- septembrie 2021
- august 2021
- iulie 2021
- iunie 2021
- mai 2021
- aprilie 2021
- martie 2021
- februarie 2021
- ianuarie 2021
- decembrie 2020
- noiembrie 2020
- octombrie 2020
- septembrie 2020
- august 2020
- iulie 2020
- iunie 2020
- mai 2020
- aprilie 2020
- martie 2020
- februarie 2020
- ianuarie 2020
- decembrie 2019
- noiembrie 2019
- octombrie 2019
- septembrie 2019
- august 2019
- iulie 2019
- iunie 2019
- mai 2019
- aprilie 2019
- martie 2019
- februarie 2019
- ianuarie 2019
- decembrie 2018
- noiembrie 2018
- octombrie 2018
- septembrie 2018
- august 2018
- iulie 2018
- iunie 2018
- mai 2018
- aprilie 2018
- martie 2018
- februarie 2018
- ianuarie 2018
- decembrie 2017
- noiembrie 2017
- octombrie 2017
- septembrie 2017
- august 2017
- iulie 2017
- iunie 2017
- mai 2017
- aprilie 2017
- martie 2017
- februarie 2017
- ianuarie 2017
- decembrie 2016
- noiembrie 2016
- octombrie 2016
- septembrie 2016
- august 2016
- iulie 2016
- iunie 2016
- mai 2016
- aprilie 2016
- martie 2016
- februarie 2016
- ianuarie 2016
- decembrie 2015
- noiembrie 2015
- octombrie 2015
- septembrie 2015
- august 2015
- iulie 2015
- iunie 2015
- mai 2015
- aprilie 2015
- martie 2015
- februarie 2015
- ianuarie 2015
Calendar
L | Ma | Mi | J | V | S | D |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Lasă un răspuns
Trebuie să fii autentificat pentru a publica un comentariu.