Libertatea de exprimare în era tehnologiei digitale avansate – certitudini și incertitudini juridice
Ada-Iuliana Popescu - noiembrie 17, 20251. Considerații introductive
În era digitală, una din cele mai inedite provocări o reprezintă reglementarea normativă a producerii și utilizării inteligenței artificiale (IA), stabilirea unui cadru juridic internațional și național care să asigure dezvoltarea unor modele de inteligență artificială de încredere, dar fără a sufoca însă inovația și progresul tehnologic. Utilizarea în creștere a inteligenței artificiale a stârnit multe preocupări cu privire la impactul acesteia asupra exercitării drepturilor și libertăților fundamentale. Frica de a nu asista la un vid legislativ care să conducă în principal la o lipsă de protecție a acestora raportată la dezvoltarea și utilizarea IA a determinat elaborarea de recomandări la nivel internațional, politici publice, strategii, legislație la nivel național și regional, coduri de conduită și proceduri la nivelul companiilor care utilizează IA.
Din perspectiva protecției dreptului la liberă exprimare, în ultimii ani, IA a avut un impact semnificativ mai ales asupra procesului de comunicare și diseminare a informației. De la algoritmii care selectează conținutul pe rețelele sociale până la sistemele automate de moderare a discursului online, IA influențează din ce în ce mai mult modul în care indivizii se exprimă și interacționează în spațiul public virtual. Această transformare ridică întrebări esențiale cu privire la exercitarea dreptului la liberă exprimare, unul dintre pilonii fundamentali ai oricărei societăți democratice și o valoare europeană fundamentală de necontestat. Principalele întrebări la care se caută un răspuns normativ pe termen lung sunt: în ce măsură inteligența artificială influențează libertatea de exprimare? Poate fi considerată inteligența artificială un facilitator al discursului liber sau, dimpotrivă, un instrument de cenzură algoritmică? Acest articol își propune să exploreze tensiunile, oportunitățile și riscurile generate de intersecția dintre tehnologiile inteligente și drepturile fundamentale, cu un accent deosebit pe impactul IA asupra libertății de exprimare. Dezvoltarea și utilizarea inteligenței artificiale a generat numeroase dezbateri referitoare la potențialele sale beneficii, dar și riscuri la nivel social.
2. Inteligența artificială – prieten sau dușman?
În literatura de specialitate, inteligența artificială comportă numeroase definiții în funcție de domeniul de aplicabilitate și în funcție de fazele ciclului de viață al unui sistem de inteligență artificială: cercetare, proiectare, dezvoltare, implementare și utilizare. UNESCO consideră sistemele de inteligență artificială drept „sisteme tehnologice care au capacitatea de a procesa informația într-un mod asemănător comportamentului inteligent”[1]. Caracteristicile esențiale ale un sistem de IA se află în componentele tehnologice care îi asigură capacitatea de a procesa date și informații într-un mod care implică un comportament inteligent. Prin urmare, această capacitate poate consta în aspecte legate de învățare, planificare, predicție și control[2]. În practică, sistemele de IA sunt formate din algoritmi și modele care generează aceste abilități. Prin proiectare, aceste componente oferă sistemului de IA capacitatea să acționeze cu un anumit grad de autonomie. La nivelul Uniunii Europene, Comisia Europeană a adoptat o definiție similară, generală, considerând că inteligența artificială se rezumă la „sistemele care manifestă comportamente inteligente prin analizarea mediului lor înconjurător și care iau măsuri – cu un anumit grad de autonomie – pentru a atinge obiective specifice”[3].
Inteligența artificială are un impact fără precedent asupra modului în care oamenii comunică și se raportează la conținutul media. Ca și alte inovații tehnologice, IA are potențialul de a face bine, dar poate reprezenta și o amenințare reală la adresa drepturilor omului, în special, cu privire la libertatea de exprimare și libertatea presei. Avantajele majore ale utilizării inteligenței artificiale sunt facilitarea accesului la informație și a comunicării rapide, precum și posibilitatea filtrării unui volum imens de informație care depășește abilitățile umane în acest sens. Cu toate acestea, IA aduce o serie de îngrijorări, mai ales atunci când vine vorba de utilizarea acesteia pentru moderarea conținutului online sau, cu rea-credință, pentru a cenzura libertatea de exprimare și exercitarea democratică a altor drepturi fundamentale conexe.
De exemplu, platformele online, precum Facebook, YouTube sau TikTok, folosesc IA pentru a selecta conținutul vizibil utilizatorilor și pentru a-l modera. Astfel, pe baza algoritmilor, fără intervenție umană directă, inteligența artificială determină care postări sunt „relevante”, care conținut „problematic” trebuie eliminat sau care utilizatori vor fi sancționați prin excluderea lor temporară sau definitivă de pe platformă. Inteligența artificială poate ajunge astfel la o filtrare excesivă a conținutului sau poate dezvolta preferințe pentru anumite idei sau opinii.
Această influență asupra fluxului informațional ridică întrebări legate de neutralitatea platformei și de eventuala exercitare a unui rol cvasi-jurisdicțional de către sistemele de IA. Spre exemplu, excluderea unui jurnalist sau a unui activist de pe o platformă poate echivala cu limitarea accesului la spațiul public digital și poate fi considerată un abuz asupra exercitării dreptului la liberă exprimare. Întrebarea care se pune aici este dacă o companie poate să limiteze libertatea de exprimarea fără garanții procedurale? Mai mult, algoritmii utilizați folosiți sunt adesea opaci, se află într-o „cutie neagră”, ceea ce face imposibilă contestarea eficientă a deciziilor luate de sistemele de IA. În plus, platformele evită să-și asume răspunderea directă, invocând statutul de simpli intermediari între furnizorii de IA și utilizatori. Această lipsă de transparență intră în conflict cu principiile statului de drept, în special cu dreptul la un remediu efectiv, consacrat la nivel european de articolul 13 al Convenției Europene a Drepturilor Omului.
În același timp, este adevărat că moderarea automată poate fi eficientă în detectarea conținutului ilicit (ex: pornografie infantilă, incitare la violență). Cu toate acestea, inteligența artificială funcționează pe baza unor seturi de date antrenate anterior și poate comite erori de evaluare, mai ales în interpretarea ironiei, sarcasmului sau a unui limbaj ambiguu. Practic, cenzura automatizată riscă să fie arbitrară sau părtinitoare. Un exemplu în acest sens poate fi situația de eliminare automată a conținutului despre războiul din Ucraina, atunci când algoritmii confundă raportarea jurnalistică cu promovarea violenței. Astfel de cazuri demonstrează posibilitatea realizării așa-numitul „overblocking”, ștergerea excesivă și nejustificată a conținutului licit ca urmare a utilizării inteligenței artificiale[4].
Deoarece IA se bazează pe date furnizate de oameni, rezultatele utilizării sale sunt inevitabil modelate de valori culturale, experiențe personale, convingeri, inclusiv prejudecăți, ceea ce poate conduce la „fabricarea” de știri false și, pe cale de consecință, la haos informațional[5]. În astfel de situații, soluția este „cenzura preventivă” pentru a corecta „comportamentul” sistemului de IA. Pe de altă parte, o astfel de cenzură utilizată cu rea-credință se poate transforma în „autoritarism digital”. Folosindu-se de scuza pericolului dezinformării, autoritățile statului pot supraveghea ilegal cetățenii și pot controla comunicarea publică în moduri incompatibile cu respectarea drepturilor și libertăților fundamentale.
Cazuri de represiune digitală au fost investigate și aduse în discuție de către organizațiile neguvernamentale și militanții din domeniul protecției drepturilor și libertăților fundamentale ale omului. Utilizarea IA pentru îngrădirea exercitării unor drepturi fundamentale s-a extins semnificativ în ultimii ani. State precum China, Iran, Egipt, Rusia, Etiopia folosesc în prezent tehnologia informațională pentru a menține un status quo politic prin controlul oferit de aceasta asupra libertății de exprimare a propriilor cetățeni sau accesului la informație a acestora[6]. Concret, indivizii sunt supravegheați constant prin diverse mijloace informatice și de comunicare care utilizează IA.
Supravegherea digitală a existat încă de la începutul anilor 2000, pe modelul „Big Brother”, ca metodă de prevenire a activităților de terorism. Pe măsură ce tehnologia a avansat, supravegherea a început să se realizeze și pentru alte activități ilegale, dar, în funcție de contextul politic, social și economic, aceasta s-a materializat și în abuzuri din partea autorităților. Motive precum securitatea națională sau ordinea publică au justificat treptat acest comportament abuziv, de cele mai multe ori nedetectat sau greu detectabil. Guvernarea și controlul prin utilizarea algoritmilor digitali poate conduce cu ușurință, atunci când se dorește, la autoritarism digital, la menținerea unui regim politic în afara democrației, inclusiv la conflicte internaționale între state. Cuantificând cele explicate mai sus, credem că principalele provocări juridice referitoare la reglementarea statutului inteligenței artificiale vor fi numeroase.
În primul rând, va fi nevoie de norme care să asigure justețea și transparența limitării dreptului la liberă exprimare prin decizii automatizate. Dacă o platformă decide – prin intermediul unui sistem de IA – să elimine un mesaj sau să suspende un cont, ne confruntăm cu o ingerință indirectă, dar efectivă, asupra libertății de exprimare. În al doilea rând, este nevoie de reguli juridice și pentru combaterea discriminării în condițiile în care algoritmii pot perpetua și amplifica discriminări existente în datele pe care inteligența artificială se bazează. Nu numai că putem asista la o încălcare a articolul 14 din Convenția Europeană a Drepturilor Omului privind interzicerea discriminării, dar și la un efect de inhibare a exprimării libere. În al treilea rând, conform standardelor Curții Europene a Drepturilor Omului, orice restrângere a unui drept fundamental trebuie să fie însoțită de garanții procedurale adecvate. În contextul utilizării IA, lipsa unui mecanism de contestare a deciziilor automatizate echivalează cu o absență a controlului juridic.
3. Un început, câteva certitudini…
În anul 2021, unul dintre raportorii speciali ai Organizației Națiunile Unite atrăgea atenția asupra impactului potențial nefast al utilizării sistemelor de inteligență artificială asupra exercitării dreptului la liberă exprimare și a celorlalte drepturi fundamentale, în lipsa unor standarde și reguli juridice adecvate[7]. Responsabilitatea revine atât guvernelor prin prisma obligațiilor statelor care decurg din dreptul internațional public, cât și companiilor care produc, utilizează, furnizează, distribuie sisteme de inteligență artificială și care trebuie să respecte standardele și principiile care stau la baza protecției drepturilor omului în activitatea de afaceri.
Proiectarea și implementarea sistemelor de IA pentru a genera, colecta și analiza informații despre utilizatori trebuie să fie centrate pe respectarea libertății de opinie și de exprimare. Acest lucru presupune evaluări permanente de impact, măsuri care să garanteze transparența în utilizarea inteligenței artificiale, audituri independente și externe periodice și consultări cu utilizatorii finali și cu alte părți interesate. Obiectivul principal al acestor măsuri trebuie să fie eliminarea oricărei forme de cenzură ilegală și discriminare generată de sistemele de IA. Cu alte cuvinte, un cadru legal eficient pentru reglementarea producerii și utilizării inteligenței artificiale trebuie să se bazeze pe o strânsă colaborare între autoritățile statului și companiile care dezvoltă, utilizează și furnizează sisteme de IA.
La nivel european, Consiliul Europei a contribuit în mod esențial la modelarea cadrului legal în care sistemele de IA urmează să funcționeze. În ultimii zece ani, mai multe organisme și comitete ale Consiliului Europei au elaborat și emis o serie de documente de politică publică, recomandări, declarații și instrumente juridice[8]. La rândul său, încă din 2018, în baza unei strategii proprii, Comisia Europeană a început construcția normativă și de infrastructură în domeniul inteligenței artificiale prin consultări extinse cu mediul de afaceri, experți în domeniu, reprezentanți ai societății civile. Grupul de experți în IA și Alianța UE pentru IA (2018) au primit ca misiune coordonarea acestui demers, analizând nevoile etice și normative pentru a obține o matrice reglementativă în premieră. În anul 2022 exista deja o propunere de directivă pentru IA, însă, după negocieri îndelungate a fost preferat un regulament în locul acesteia pentru un control mai riguros asupra uniformității normative în Statele Membre. Regulamentul privind IA a fost adoptat în 2024, aducând însă mai multă îngrijorare decât certitudini.
[1] UNESCO, First version of a draft text of a recommendation on the ethics of artificial intelligence, 2020, p.4, [Online] la https://unesdoc.unesco.org/ark:/48223/pf0000373434, accesat la 7.05.2025.
[2] Anneke Zuiderwijk et al., „Implications of the use of artificial intelligence in public governance: A systematic literature review and a research agenda”, Government Information Quarterly, vol. 38, nr. 3, iulie 2021, pp. 2-19, [Online] la https://www.sciencedirect.com/journal/government-information-quarterly/vol/38/issue/3, accesat la 7.05.2025.
[3] Comisia Europeană, Comunicare a Comisiei către Parlamentul European, Consiliul European, Consiliu, Comitetul Economic și Social European și Comitetul Regiunilor, Inteligența artificială pentru Europa, 2018, p.1, [Online] la https://eur-lex.europa.eu/legal-content/RO/TXT/PDF/?uri=CELEX:52018DC0237; High-Level Expert Group on Artificial Intelligence, A definition of AI: Main capabilities and disciplines, 2019, p.1, [Online] la file:///C:/Users/APuser18/Downloads/ai_hleg_ai_definition_final_DF06F793-EA01-3573-16D2ACD625E2BDB0_56341.pdf, accesate la 10.05.2025.
[4] Agenția Uniunii Europene pentru Drepturi Fundamentale (FRA), Online Content Moderation – Current Challenges in detecting hate speech Report, 2023, [Online] la https://fra.europa.eu/sites/default/files/fra_uploads/fra-2023-online-content-moderation_en.pdf, accesat la 15.05.2025.
[5] Julia Haas, Office of the OSCE Rrepresentative on the freedom of the media, Freedom of the media and artificial intellingence, 2020, [Online] la https://www.osce.org/files/f/documents/4/5/472488.pdf, accesat la 10.05.2025.
[6] H. Akin Unver, Artificial intelligence (AI) and human rights: Using AI as a Weapon of repression and its impact on human rights, [Online] la https://www.europarl.europa.eu/thinktank/en/document/EXPO_IDA(2024)754450, accesat la 10.05.2025.
[7] Irene Khan, Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression, A/HCR/47/25, 2021, [Online] la https://www.ohchr.org/en/documents/thematic-reports/ahrc4725-disinformation-and-freedom-opinion-and-expression-report, accesat la 10.05.2025.
[8] Consiliul Europei, The Council of Europe and Artificial Intellingence, [Online] la https://rm.coe.int/brochure-artificial-intelligence-en-march-2023-print/1680aab8e6, accesat la 8.05.2025.
Arhive
- martie 2026
- februarie 2026
- ianuarie 2026
- decembrie 2025
- noiembrie 2025
- octombrie 2025
- septembrie 2025
- august 2025
- iulie 2025
- iunie 2025
- mai 2025
- aprilie 2025
- martie 2025
- februarie 2025
- ianuarie 2025
- decembrie 2024
- noiembrie 2024
- octombrie 2024
- septembrie 2024
- august 2024
- iulie 2024
- iunie 2024
- mai 2024
- aprilie 2024
- martie 2024
- februarie 2024
- ianuarie 2024
- decembrie 2023
- noiembrie 2023
- octombrie 2023
- septembrie 2023
- august 2023
- iulie 2023
- iunie 2023
- mai 2023
- aprilie 2023
- martie 2023
- februarie 2023
- ianuarie 2023
- decembrie 2022
- noiembrie 2022
- octombrie 2022
- septembrie 2022
- august 2022
- iulie 2022
- iunie 2022
- mai 2022
- aprilie 2022
- martie 2022
- februarie 2022
- ianuarie 2022
- Supliment 2021
- decembrie 2021
- noiembrie 2021
- octombrie 2021
- septembrie 2021
- august 2021
- iulie 2021
- iunie 2021
- mai 2021
- aprilie 2021
- martie 2021
- februarie 2021
- ianuarie 2021
- decembrie 2020
- noiembrie 2020
- octombrie 2020
- septembrie 2020
- august 2020
- iulie 2020
- iunie 2020
- mai 2020
- aprilie 2020
- martie 2020
- februarie 2020
- ianuarie 2020
- decembrie 2019
- noiembrie 2019
- octombrie 2019
- septembrie 2019
- august 2019
- iulie 2019
- iunie 2019
- mai 2019
- aprilie 2019
- martie 2019
- februarie 2019
- ianuarie 2019
- decembrie 2018
- noiembrie 2018
- octombrie 2018
- septembrie 2018
- august 2018
- iulie 2018
- iunie 2018
- mai 2018
- aprilie 2018
- martie 2018
- februarie 2018
- ianuarie 2018
- decembrie 2017
- noiembrie 2017
- octombrie 2017
- septembrie 2017
- august 2017
- iulie 2017
- iunie 2017
- mai 2017
- aprilie 2017
- martie 2017
- februarie 2017
- ianuarie 2017
- Supliment 2016
- decembrie 2016
- noiembrie 2016
- octombrie 2016
- septembrie 2016
- august 2016
- iulie 2016
- iunie 2016
- mai 2016
- aprilie 2016
- martie 2016
- februarie 2016
- ianuarie 2016
- decembrie 2015
- noiembrie 2015
- octombrie 2015
- septembrie 2015
- august 2015
- iulie 2015
- iunie 2015
- mai 2015
- aprilie 2015
- martie 2015
- februarie 2015
- ianuarie 2015
Calendar
| L | Ma | Mi | J | V | S | D |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | ||
| 6 | 7 | 8 | 9 | 10 | 11 | 12 |
| 13 | 14 | 15 | 16 | 17 | 18 | 19 |
| 20 | 21 | 22 | 23 | 24 | 25 | 26 |
| 27 | 28 | 29 | 30 | |||
Lasă un răspuns
Trebuie să fii autentificat pentru a publica un comentariu.