• Grup editorial Universul Juridic
    • Editura Universul Juridic
    • Editura Pro Universitaria
    • Editura Neverland
    • Libraria Ujmag.ro
  • Contact
  • Autentificare
  • Inregistrare
Skip to content
  • Acasă
  • Echipa editorială
  • Autori
  • Procesul de recenzare
  • Indexare BDI
  • Contact
  • PORTAL UNIVERSUL JURIDIC

Calendar

aprilie 2026
L Ma Mi J V S D
 12345
6789101112
13141516171819
20212223242526
27282930  
« mart.    

Archives

  • martie 2026
  • februarie 2026
  • ianuarie 2026
  • decembrie 2025
  • noiembrie 2025
  • octombrie 2025
  • septembrie 2025
  • august 2025
  • iulie 2025
  • iunie 2025
  • mai 2025
  • aprilie 2025
  • martie 2025
  • februarie 2025
  • ianuarie 2025
  • decembrie 2024
  • noiembrie 2024
  • octombrie 2024
  • septembrie 2024
  • august 2024
  • iulie 2024
  • iunie 2024
  • mai 2024
  • aprilie 2024
  • martie 2024
  • februarie 2024
  • ianuarie 2024
  • decembrie 2023
  • noiembrie 2023
  • octombrie 2023
  • septembrie 2023
  • august 2023
  • iulie 2023
  • iunie 2023
  • mai 2023
  • aprilie 2023
  • martie 2023
  • februarie 2023
  • ianuarie 2023
  • decembrie 2022
  • noiembrie 2022
  • octombrie 2022
  • septembrie 2022
  • august 2022
  • iulie 2022
  • iunie 2022
  • mai 2022
  • aprilie 2022
  • martie 2022
  • februarie 2022
  • ianuarie 2022
  • Supliment 2021
  • decembrie 2021
  • noiembrie 2021
  • octombrie 2021
  • septembrie 2021
  • august 2021
  • iulie 2021
  • iunie 2021
  • mai 2021
  • aprilie 2021
  • martie 2021
  • februarie 2021
  • ianuarie 2021
  • decembrie 2020
  • noiembrie 2020
  • octombrie 2020
  • septembrie 2020
  • august 2020
  • iulie 2020
  • iunie 2020
  • mai 2020
  • aprilie 2020
  • martie 2020
  • februarie 2020
  • ianuarie 2020
  • decembrie 2019
  • noiembrie 2019
  • octombrie 2019
  • septembrie 2019
  • august 2019
  • iulie 2019
  • iunie 2019
  • mai 2019
  • aprilie 2019
  • martie 2019
  • februarie 2019
  • ianuarie 2019
  • decembrie 2018
  • noiembrie 2018
  • octombrie 2018
  • septembrie 2018
  • august 2018
  • iulie 2018
  • iunie 2018
  • mai 2018
  • aprilie 2018
  • martie 2018
  • februarie 2018
  • ianuarie 2018
  • decembrie 2017
  • noiembrie 2017
  • octombrie 2017
  • septembrie 2017
  • august 2017
  • iulie 2017
  • iunie 2017
  • mai 2017
  • aprilie 2017
  • martie 2017
  • februarie 2017
  • ianuarie 2017
  • Supliment 2016
  • decembrie 2016
  • noiembrie 2016
  • octombrie 2016
  • septembrie 2016
  • august 2016
  • iulie 2016
  • iunie 2016
  • mai 2016
  • aprilie 2016
  • martie 2016
  • februarie 2016
  • ianuarie 2016
  • decembrie 2015
  • noiembrie 2015
  • octombrie 2015
  • septembrie 2015
  • august 2015
  • iulie 2015
  • iunie 2015
  • mai 2015
  • aprilie 2015
  • martie 2015
  • februarie 2015
  • ianuarie 2015

Categories

  • Abstract
  • Actualitate legislativă
  • Alte categorii
  • Din jurisprudența CCR
  • Din jurisprudența ÎCCJ
  • Editorial
  • HP
  • Interviu
  • Prefata
  • Recenzie de carte juridică
  • RIL
  • Studii, articole, opinii
  • Studii, discuții, comentarii (R.  Moldova și Ucraina)
  • Supliment 2016
  • Supliment 2021
Revista Universul JuridicRevistă lunară de doctrină și jurisprudență | ISSN 2393-3445
  • Acasă
  • Echipa editorială
  • Autori
  • Procesul de recenzare
  • Indexare BDI
  • Contact
  • PORTAL UNIVERSUL JURIDIC

Boți, troli și micro-influenceri. Provocări juridice pentru democrația sub asediu

Mădălina Voican - iunie 10, 2025

Conținut viral și Notorietate. Manipularea alegerilor prin boți, troli și micro-influenceri

Ferme de boți, ferme de troli sau micro-influenceri? Când discutăm aceste concepte, ne referim la trei forme de manipulare online care au scopul este de a viraliza conținutul video pe platfromele social-media pentru a face campanie unui candidat.

Termenul viral (în context digital) se referă la conținutul care se răspândește rapid și masiv pe internet, în special pe rețelele sociale, prin distribuire repetată de către utilizatori.

Un conținut devine viral atunci când:

• este văzut de un număr foarte mare de persoane într-un timp scurt,

• este distribuit în lanț (de la o persoană la alta),

• trece dincolo de publicul inițial și ajunge la categorii largi sau neașteptate de audiență.

De ce aleargă politicienii după conținutul viral? Conținutul viral și notorietatea merg mână în mână. Politicienii aleargă după conținutul viral pentru că acesta este o cale rapidă, eficientă și relativ ieftină de a obține notorietate. Într-un peisaj media saturat, viralitatea devine o armă strategică. Un singur videoclip, meme sau mesaj care prinde tracțiune pe rețelele sociale poate face mai mult pentru imaginea unui politician decât luni de campanie clasică.

Notorietatea reflectă nivelul de recunoaștere publică de care se bucură un candidat și reprezintă un factor decisiv în succesul electoral, întrucât familiaritatea cu numele, imaginea și valorile de care se bucură acesta generează încredere și devine o sursă subtilă, dar puternică, de capital politic (Langer, 2010; Berger & Milkman, 2012). Totodată, cercetările arată că un nivel ridicat de notorietate influențează comportamentul electoral, în sensul că alegătorii, în special cei mai puțin implicați sau indeciși, sunt mai predispuși să sprijine un candidat al cărui nume l-au auzit în mod repetat (Kruikemeier & van Noort, 2022).

În consecință, generarea de conținut viral – capabil să producă notorietate – a devenit o strategie dominantă a puterii politice, având ca scop atragerea atenției alegătorilor și mobilizarea susținătorilor (Kruikemeier & van Noort, 2022). Astfel conținutul viral asigură acces masiv și instantaneu la public, are un impact emoțional puternic și îi impulsionează pe utilizatori să acționeze (de ex. prin donații, participare la evenimente, activare pe rețele sociale sau prezența la vot) (Boulianne, 2015).

În aces context boții, trolii și micro-influencerii joacă, fiecare, un rol din ce în ce mai important în modelarea opiniei publice în mediul online (Bradshaw & Howard, 2019; Woolley & Howard, 2018). Fermele de boți sunt sisteme automatizate, bazate pe inteligență artificială, capabile să genereze sau să distribuie conținut la scară largă fără intervenție umană directă (Ferrara, Varol, Davis, Menczer & Flammini, 2016). Trolii, în schimb, sunt persoane reale implicate în activități coordonate de influențare prin comentarii, postări sau interacțiuni menite să distorsioneze discursul public (Bastos & Mercea, 2019). Micro-influencerii reprezintă o formă mai subtilă de manipulare: sunt indivizi reali, cu audiențe online mici, dar loiale, a căror autenticitate percepută le permite să amplifice dezinformarea, narațiunile polarizante sau mesajele politice într-un mod care pare credibil și organic (Hwang, 2020; Abidin, 2016). Deși aceste entități sunt adesea puse în aceeași categorie, ele operează prin mecanisme diferite, cu implicații distincte, motiv pentru care este esențial să le diferențiem funcțiile atunci când analizăm rolul lor în răspândirea dezinformării și subminarea proceselor democratice.

Toate cele trei tehnici — fermele de boți, fermele de troli și micro-influencerii — sunt folosite de partide politice și de politicieni, în funcție de obiectivele și resursele acestora (Bradshaw & Howard, 2019). Fermele de boți sunt preferate pentru manipulări de amploare, rapide și automatizate (de exemplu, aprecieri, distribuiri, comentarii automate) (Ferrara et al., 2016), în timp ce fermele de troli și micro-influencerii sunt utilizate pentru intervenții mai nuanțate, cu mesaje personalizate și tactici precum intimidarea, discreditarea sau crearea de polarizare (Bastos & Mercea, 2019; Neudert et al., 2019). Aceste instrumente sunt adesea combinate pentru a maximiza impactul asupra opiniei publice sau, după caz, manipularea alegătorilor, așa cum s-a întâmplat în cazul alegerilor prezidențiale din România, în noiembrie 2024.

Fermele de boți sunt sisteme automatizate bazate pe inteligență artificială (IA), în special pe subdomeniile acesteia: procesarea limbajului natural (Natural Language Processing – NLP) și inteligența artificială generativă (Generative AI – GenAI). Aceste tehnologii permit computerelor să înțeleagă, să interpreteze, să genereze și să răspundă la limbajul uman prin combinarea lingvisticii, informaticii și învățării automate. Aplicațiile comune includ chatbot-uri, traducerea automată, analiza sentimentelor, recunoașterea vocală și extragerea informațiilor. Modelele GenAI reprezintă un subset mai specializat al IA, axat pe crearea de conținut nou – precum texte, imagini sau materiale audio – prin identificarea și replicarea unor tipare din date existente (Feuerriegel et al., 2024). Din această perspectivă, IA funcționează ca domeniul principal cu capacitatea de a dezvolta instrumente inteligente (Banh & Strobel, 2023).

Trolii sunt persoane reale care desfășoară activități intenționate de provocare, manipulare sau perturbare a conversațiilor online. Ei postează comentarii inflamatoare, false sau ofensatoare, cu scopul de a crea confuzie, de a incita conflicte sau de a discredita anumiți actori, idei ori instituții. Spre deosebire de boți, care funcționează automatizat, trolii acționează conștient, adesea ca parte a unor campanii coordonate, fiind angajați sau motivați ideologic pentru a influența percepțiile publice și a submina încrederea în sursele legitime de informare. (Marwick & Lewis, 2017; Phillips, 2015; Friggeri et al., 2014; Freelon et al., 2020)

Micro-influencerii joacă un rol strategic în manipularea online datorită autenticității percepute și a legăturii strânse cu audiențele de nișă (Freberg, Graham, McGaughey & Freberg, 2011). Spre deosebire de boți sau troli, micro-influencerii sunt persoane reale care se bucură adesea de un nivel ridicat de încredere și de implicare din partea urmăritorilor lor (Abidin, 2016). Atunci când sunt cooptați – intenționat sau prin stimulente subtile – pot amplifica dezinformarea, mesajele politice sau narațiunile polarizante într-un mod ce pare organic și credibil (Hwang, 2020). Impactul lor este cu atât mai eficient cu cât publicul este mai puțin predispus să pună la îndoială conținutul distribuit de o persoană cu care se identifică sau pe care o admiră (Keller & Fay, 2016). Astfel, micro-influencerii devin instrumente valoroase în operațiunile coordonate de influență și în propaganda politică (Marwick & Lewis, 2017).

Deși atât trolii, cât și micro-influencerii pot influența opinia publică online și contribuie la viralizarea mesajelor prin activitatea lor pe rețelele sociale, diferențele dintre ei sunt esențiale și se reflectă în identitate, intenție, mod de acțiune și percepție publică. Trolii acționează frecvent sub identități false sau anonime, fiind parte a unor rețele coordonate ce urmăresc manipularea, provocarea sau destabilizarea discursului public, deseori prin mesaje conflictuale și strategii de dezinformare (Marwick & Lewis, 2017; Phillips, 2015). În schimb, micro-influencerii își construiesc o imagine autentică, bazată pe identitate reală și apropiere de comunități de nișă, unde sunt percepuți ca voci de încredere și promotori ai unor valori, idei sau produse (Abidin, 2016; Freberg et al., 2011). În timp ce trolii vizează reacții rapide și negative, micro-influencerii mizează pe loialitate, engagement și relații stabile cu audiența (Hwang, 2020), devenind astfel instrumente mai subtile, dar extrem de eficiente în influențarea percepției publice.

Vedem că acest tip de comportament, al manipulării alegerilor prin ferme de boți, troli și micro-influenceri, reprezintă o strategie digitală complexă de influențare a electoratului, care este mai vizibil pe platforme precum TikTok, unde reglementările sunt mai slabe comparativ cu alte rețele sociale, cum ar fi Facebook (Donovan & Boyd, 2021), și care implică manipularea informației în mediul online, inclusiv prin:

• răspândirea dezinformării sau a informațiilor false;

• crearea de conținut înșelător (ex. clipuri video scoase din context);

• amplificarea artificială a mesajelor prin boți sau conturi coordonate;

• campanii de influențare politică mascate în conținut de divertisment;

• tactici de polarizare și incitare la ură.

De asemenea, astfel de platforme sunt adesea utilizate pentru campanii mascate de influențare politică, prezentate sub forma divertismentului, sau pentru promovarea polarizării și incitării la ură, beneficiind de un cadru de moderare opac și inconsistent (Douek, 2021; Gorwa, 2019). Nu doar TikTok este afectată de aceste practici: și alte platforme sociale, în special cele care nu oferă acces la arhive publicitare transparente sau la date clare privind sursa conținutului promovat, contribuie la perpetuarea acestor forme de manipulare digitală (Leerssen et al., 2021).

Thriller electoral: Cazul Georgescu & Fermele de boți

Unul dintre cele mai relevante exemple de manipulare digitală în alegeri este reprezentat de alegerile prezidențiale din România din 2024. Ascensiunea surprinzătoare pe primul loc a candidatului Georgescu, aproape necunoscut și cotat inițial cu 6,2%, a transformat finalul campaniei într-un adevărat thriller electoral, marcat de tensiune, incertitudine și suspiciuni de fraudă digitală.

Documentele declasificate de administrația românească arată că a fost identificată o rețea de aproximativ 25.000 de conturi TikTok pro-Georgescu, care au devenit extrem de active cu două săptămâni înainte de primul tur de scrutin, promovând masiv candidatul (SRI 2024). După încheierea alegerilor, aceste conturi au dispărut brusc de pe platformă, semnalând o posibilă operațiune coordonată de influențare electorală prin intermediul unei ferme de boți.

De asemenea SRI a raportat că, dintre aceste conturi, 797 fuseseră create încă din 2016, însă activitatea lor a fost extrem de redusă până la data de 11 noiembrie 2024, când rețeaua a fost activată la capacitate maximă. SRI a mai arătat că respectivele conturi foloseau adrese IP unice pentru a accesa platforma, ceea ce a făcut imposibilă asocierea lor directă într-o rețea comună, indicând un nivel avansat de coordonare tehnologică și o strategie deliberată de a evita detecția algoritmică.

Comparând comportamentul acestor boți cu cel al utilizatorilor activi reali, se pot observa diferențe clare în ceea ce privește ritmul postărilor, dimensiunea și viteza de propagare a mesajelor (retweet cascades adaptate în format TikTok, precum duete, remixuri sau redistribuiri), precum și componența acestor propagări (interacțiuni utilizator–bot vs. bot–bot). Rezultatele indică faptul că boții politici pot fi extrem de eficienți în generarea rapidă de cascade de dimensiuni mici și medii, conținutul redistribuit fiind adesea constituit din videoclipuri hiperpartizane create de utilizatori – nu neapărat informații complet false, dar cu o durată de viață extrem de scurtă. În plus, analiza a arătat că astfel de rețele pot fi organizate în clustere specializate, cu roluri distincte: unele pentru a replica activitatea utilizatorilor reali, altele pentru a redistribui conținutul generat de alți boți, semnalând o sofisticare în structura și utilizarea fermelor de boți pe TikTok în manipularea electorală (VIGINUM 2024).

Serviciului Român de Informații precum și publicația G4Media.ro dezvăluie, de asemenea, existența mai multor canale Discord și grupuri Telegram, unele dintre acestea fiind prepoziționate încă din septembrie 2022, menite să implementeze și să coordoneze o strategie de amplificare artificială a conținutului legat de acest candidat pe TikTok.

Astfel, campania electorală de pe Tik-Tok și alte rețele de socializare a promovat intens candidatura lui Georgescu, prin aceea că conturile automate distribuind masiv conținut favorabil acestuia în perioada premergătoare votului.

Ca rezultat al acestei vizibilități artificiale și al amplificării hiperpartizane a mesajelor, Georgescu a ieșit pe primul loc în urma votului. Campania digitală a generat o creștere spectaculoasă și neașteptată a unui candidat care, cu doar trei zile înainte de alegeri, era cotat în sondaje cu 6,2%, (HotNews) ajungând la un scor final de 22,94%, clasându-se pe primul loc BEC 2024).

Statul de Drept și principiile democratice

Statul de drept nu trebuie să permită un vot care încalcă valorile democratice. El trebuie să acționeze pentru a preveni abuzurile și manipularea, chiar și atunci când acestea par să îmbrace haina democrației, de tipul: „doi lupi și un miel votează meniul pentru prânz” (Quote Investigator n.d.). Democrația nu poate fi redusă la numere, fără reguli care să protejeze drepturile celor vulnerabili, pentru că altfel ea devine o mască pentru dominația celui mai puternic.

Sunt situații în care alegătorii pot acționa irațional chiar și cu cele mai bune intenții, iar acest comportament colectiv poate conduce la decizii politice ineficiente sau chiar periculoase pentru democrație, mai ales atunci când lipsesc limitele instituționale asupra puterii majorității (Caplan 2007). Pentru a preveni efectele negative ale comportamentului electoral irațional, este esențial ca instituțiile de control constituțional, precum Curtea Constituțională, să intervină atunci când voința democratică riscă să fie deturnată (Băbălău, 2015) sau exploatată în mod abuziv.

În România, statul de drept și-a jucat recent rolul în contextul alegerilor locale, atunci când, în locul celor doi lupi, am avut de-a face cu fermele de boți. Iar gardianul statului de drept în România a fost Curtea Constituțională, care, prin istorica decizie nr. 32/2024, a anulat alegerile prezidențiale din toamna anului 2024.

Astfel Statul de drept nu înseamnă doar organizarea unor alegeri, ci și asigurarea faptului că acestea se desfășoară cu respectarea valorilor democratice. Un vot nu este legitim doar prin simpla sa existență, ci prin garanțiile care îl însoțesc: transparență, corectitudine, acces egal la informație și protecția voinței libere a alegătorilor. Statul de drept are obligația de a interveni acolo unde abuzurile și manipularea amenință însăși esența democrației – chiar și atunci când aceste amenințări se ascund sub o aparență democratică. Metaforic spus, democrația nu poate fi redusă la scenariul în care „doi lupi și un miel votează meniul pentru prânz”. Acesta trebuie completat cu: „Libertatea și Statul de drept este un miel bine înarmat care contestă votul.”

În România, acest principiu a fost pus la încercare în contextul alegerilor locale din 2024, când fenomenul manipulării nu a mai fost exercitat prin mijloace clasice, ci prin instrumente digitale sofisticate, precum fermele de boți. Acestea au distorsionat dezbaterea publică, au amplificat dezinformarea și au influențat percepțiile alegătorilor într-un mod profund nedemocratic.

În fața acestei provocări fără precedent, Curtea Constituțională a României a acționat ca un veritabil gardian al statului de drept. Prin decizia istorică nr. 32/2024, Curtea a anulat alegerile prezidențiale din toamna acelui an, recunoscând amploarea și gravitatea influenței nelegitime exercitate asupra procesului electoral. Această hotărâre nu reprezintă doar un moment de referință pentru jurisprudența constituțională românească, ci și un semnal clar că valorile democratice trebuie apărate ferm (Băbălău, 2024), mai ales în fața noilor forme de manipulare digitală.

Legalitatea manipulării online. Între vid normativ și ilegalitate

Manipularea online în context electoral ridică întrebări esențiale privind granița dintre legal, ilegal și imoral. În prezent, această practică se situează adesea într-o zonă gri, dar poate trece rapid în sfera ilegalității, mai ales în perioada campaniilor electorale, unde reglementările sunt mult mai stricte (Bayer et al., 2019; Douek, 2021). Noul Regulament european privind transparența și direcționarea publicității politice (Regulamentul UE 2024/900), intrat în vigoare în martie 2024, interzice explicit utilizarea datelor sensibile și deduse pentru targetare politică, stabilind o linie clară între strategiile permise și cele ilegale în promovarea electorală (European Commission, 2024). De asemenea, cercetările recente subliniază riscurile aduse de lipsa de transparență în arhivele de publicitate online și dificultatea de a urmări comportamentele coordonate pe platformele digitale (Leerssen et al., 2021).

În România, legislația electorală impune o serie de restricții clare privind comportamentul competitorilor politici, inclusiv în mediul online. Utilizarea datelor cu caracter sensibil – precum convingerile politice, starea de sănătate sau apartenența religioasă – pentru targetare și influențare electorală este interzisă. Această interdicție a fost întărită prin Regulamentul privind transparența și direcționarea publicității politice, adoptat la nivelul Uniunii Europene, care a intrat în vigoare în martie 2024 și este obligatoriu și pentru România.

Conform acestuia, este interzisă inclusiv folosirea de date deduse, adică rezultate din corelarea mai multor seturi de informații despre un utilizator, pentru personalizarea mesajelor politice. Mai mult, conținutul fals – atunci când este distribuit în scopul de a crea o imagine distorsionată a unui candidat, partid sau actor politic – poate fi raportat și, în anumite cazuri, poate intra în zona de ilegalitate, în special dacă afectează integritatea procesului electoral sau încalcă prevederile privind combaterea dezinformării și protejarea datelor personale.

Așadar, deși manipularea digitală poate părea la prima vedere o chestiune de etică sau moralitate, în realitate, contextul legal actual – atât național, cât și european – oferă instrumente clare care pot sancționa astfel de comportamente. Problema nu este lipsa reglementării, ci aplicarea eficientă a normelor existente (Poțincu, 2019) și adaptarea capacității instituționale pentru a face față provocărilor digitale în timp real.

Hotărârea CCR 32/2024 de anulare a alegerilor prezidențiale

Curtea Constituțională a României, prin Hotărârea nr. 32/2024, a anulat alegerile prezidențiale, a dispus reluarea procesului electoral în integralitate și extinderea mandatului președintelui în funcție până la desfășurarea noilor alegeri și validarea mandatului unui nou președinte.

O prima observație este că Hotărârea nr. 32 a fost adoptată ca urmare a auto-sesizării Curții Constituționale, și nu ca urmare a admiterii vreunei contestații aflate pe rolul său. În paragraful 5 al deciziei, Curtea precizează că a „luat act” de conținutul celor cinci documente prezentate în cadrul ședinței CSAT – Consiliul Suprem de Apărare a Țării – din 28 noiembrie, dintre cele două tururi de scrutin, documente declasificate prin ordinul președintelui Iohannis, în calitatea sa de președinte al CSAT, în conformitate cu art. 92 alin. (1) din Constituție.

Un element de remarcat în legătură cu această auto-sesizare este că reprezintă primul caz în care documente declasificate privind siguranța națională ajung pe rolul Curții Constituționale. În cauzele anterioare, obiectul sesizărilor a fost diferit: renumărarea voturilor a fost dispusă în urma unei contestații formulate de unul dintre candidații la alegeri, iar validarea rezultatului primului tur a survenit după respingerea contestației, întrucât renumărarea voturilor la nivel național nu a evidențiat diferențe semnificative. În niciunul dintre aceste cazuri, documentele provenite de la CSAT nu au fost analizate de Curtea Constituțională.

Alternativa ar fi fost ca CCR să nu intervină înaintea turului al doilea. În acest scenariu, Curtea ar fi așteptat momentul finalizării alegerilor și, implicit, posibilitatea necesității invalidării rezultatului în cazul în care candidatul Georgescu ar fi obținut majoritatea voturilor. Consider că CCR a ales să nu aștepte din motivul ca efectele politice ale invalidării rezultatelor turului II, și mai precis al unui candidat ce ar fi primit votul a milioane de alegatori, ar fi generat tensiuni politice și sociale foarte mari, tensiuni de mare magnitudine și comentarii despre cu dreptul de a fi ales.

În ceea ce privește baza legala a autosesizării, CCR adoptă o abordare extinsă și activă în exercitarea atribuțiilor sale privind alegerile prezidențiale. Astfel că CCR aplică art. 370 din Legea 370/2004 privind alegerea Președintelui ținând cont de spiritul și principiile Constituției, și nu invers. Cu alte cuvinte, legea privind alegerea Președintelui este analizată și aplicată în funcție de exigențele constituționale fundamentale, precum statul de drept, integritatea procesului electoral și protejarea valorilor democratice, fără ca aceste principii să fie limitate de cadrul strict al legii organice.

Pe fond, CCR anulează alegerile prezidențiale constatând că „procesul electoral privind alegerea Președintelui României a fost viciat pe toată durata desfășurării lui și în toate etapele de multiple neregularități și încălcări ale legislației electorale care au distorsionat caracterul liber și corect al votului exprimat de cetățeni și egalitatea de șanse a competitorilor electorali, au afectat caracterul transparent și echitabil al campaniei electorale și au nesocotit reglementările legale referitoare la finanțarea acesteia.” (paragraful 5). În esență, Hotărârea CCR prezintă implicațiile constituționale ale informațiilor prezentate în documentele CSAT ce au fost desecretizate.

Un element central în motivarea CCR îl constituie impactul pe care l-a avut vicierea procesului electoral de către candidatul Georgescu, prin încălcarea dreptului alegătorilor la un vot liber, în sensul protejării acestora împotriva influențelor nejustificate, exercitate prin acte sau fapte ilegale și disproporționate, care au afectat comportamentul de vot (paragraful 13: „protecția împotriva influenței nejustificate, prin acte/ fapte nelegale și disproporționate, asupra comportamentului de vot”).

Manipularea alegerilor prin boți, troli și micro-influenceri reprezintă tocmai tipul de influență nejustificată, exercitată prin acte sau fapte nelegale și disproporționate, împotriva căreia trebuie asigurată protecția comportamentului de vot într-un stat de drept.

Pe baza documentelor desecretizate de CSAT, CCR a putut concluziona că alegerile au fost manipulate digital printr-o formă nouă de intervenție nelegitimă în procesul democratic, care afectează direct libertatea de alegere a cetățenilor. Tehnicile digitale folosite de candidatul Georgescu au permis influențarea comportamentului electoral prin metode care sunt profund intruzive și disproporționate în raport cu principiile unui proces electoral liber și corect.

Boții, prin volumul masiv de conținut generat automat, au crea iluzia unei susțineri largi pentru candidatul Georgescu distorsionând astfel percepțiile alegătorilor despre realitatea politică. Trolii au acționat coordonat pentru a răspândi dezinformare și a ataca opozanți. Iar micro-influencerii fiind cooptați și plătiți în mod netransparent și neștiind pe cine susțin au deveni canale subtile de propagare a unor mesaje partizane în campania politică pro-Georgescu.

Aceste metode sunt, prin natura lor, disproporționate, deoarece utilizează tehnologii sofisticate (inteligență artificială, rețele automate, campanii de targeting psihologic) împotriva unui electorat care nu are întotdeauna capacitatea sau instrumentele necesare pentru a le identifica și contracara. Mai mult, ele sunt nelegale atunci când încalcă legislația privind transparența campaniilor, protecția datelor sau limitele finanțării politice.

Prin urmare, protejarea comportamentului de vot față de influențe nejustificate – invocată de Curtea Constituțională în decizia nr. 32/2024 – trebuie înțeleasă în contextul acestor forme noi de manipulare. Statul de drept și instituțiile sale nu pot rămâne pasive atunci când voința alegătorului este modelată de mecanisme opace, automatizate sau coordonate în scopuri ascunse, întrucât integritatea votului presupune nu doar exprimarea liberă, ci și informată și nemanipulată a opțiunii fiecărui cetățean.

După lectura documentelor CSAT desecretizate, precum Nota de Informare MAI (DSN1/1741), Nota SRI DSN1/1742 și Nota SRI DSNI/1743, apreciez că există suficiente dovezi pentru a concluziona că integritatea alegerilor a fost viciată și că reluarea alegerilor a fost o măsură curajoasă dar necesară luată de CCR menită la „restabilirea încrederii cetățenilor în legitimitatea democratică a autorităților publice, în legalitatea și corectitudinea alegerilor, precum și înlăturarea oricăror suspiciuni de natura celor constatate în prezenta cauză” (paragraful 21).

Concluzii

În ciuda clarității deciziei Curții Constituționale și a necesității intervenției sale într-un moment de criză electorală profundă, rămân întrebări esențiale care necesită reflecție și răspunsuri pe termen lung. Perspectiva constituțională nu poate fi limitată la urgențele prezentului. Oricât de importante ar fi alegerile prezidențiale din 2024, ele ridică dileme de fond cu privire la implicațiile deciziei CCR pentru viitorul ordinii constituționale din România, pentru alegerile de peste cinci, zece sau cincisprezece ani.

Se conturează astfel o întrebare fundamentală: care sunt consecințele pe termen lung ale creării unui precedent în care o alegere democratică este anulată de judecătorii constituționali, în baza unor documente furnizate de serviciile de informații, documente care nu au fost supuse unui control contradictoriu, transparent și independent? Ce garanții există că o astfel de procedură extraordinară nu poate fi abuzată în viitor, sub pretextul unor riscuri greu de verificat?

Totodată, adevărata vulnerabilitate a democrației românești nu derivă doar din acțiuni externe de manipulare, ci și din slăbiciunea partidelor democratice, din eșecul lor de a răspunde coerent și credibil provocărilor societății. Ascensiunea forțelor extremiste, alimentată de incompetența și fragmentarea coalițiilor de centru-dreapta și centru-stânga, dar și de un context geopolitic marcat de instabilitate, reprezintă amenințarea majoră pentru viitorul democratic al României.

În fața acestor realități, Constituția nu oferă soluții directe. Ea oferă însă un cadru, o busolă, care trebuie interpretată cu prudență, viziune și respect pentru valorile fundamentale ale democrației. Decizia de azi nu trebuie să devină vulnerabilitatea de mâine.

România nu a fost un caz izolat de manipulare digitală a procesului electoral. Un exemplu emblematic îl reprezintă referendumul pentru Brexit, adesea citat ca studiu de caz în utilizarea intensivă a boților, trolior și a micro-targetării politice prin intermediul datelor personale- un context care a dus, ulterior, la adoptarea unor măsuri europene mai ferme împotriva acestui tip de comportament (Bastos & Mercea, 2019). Situații similare au fost semnalate și în alegerile recente din Slovacia și Republica Moldova, unde campaniile online au fost marcate de dezinformare, conturi false și polarizare artificială. Astfel de practici tind să devină din ce în ce mai frecvente în spațiul electoral european, ceea ce confirmă necesitatea unui cadru legal consolidat, atât la nivel național, cât și la nivelul UE, pentru a proteja integritatea proceselor democratice.

Astfel pare că manipularea online tinde să devină regula, nu excepția, în contextul proceselor electorale moderne. De aceea este din ce în ce mai greu de controlat, mai ales având în vedere că autoritățile electorale din multe țări nu dispun de resursele tehnice, juridice sau umane necesare pentru a face față unor forme sofisticate de influență digitală. Lipsa expertizei în domeniul tehnologiilor emergente, a cadrelor legale adaptate și a cooperării eficiente cu platformele sociale creează un dezechilibru major între actorii care manipulează și instituțiile care ar trebui să protejeze integritatea votului.

În tot cazul, experiența alegerilor prezidențiale din România din 2024 scoate în evidență urgența adoptării unei legislații naționale specifice privind manipularea digitală a procesului electoral, în special prin intermediul fermelor de boți, troli și micro-influenceri. Deși la nivelul Uniunii Europene au fost deja implementate măsuri importante- precum Regulamentul privind publicitatea politică, care interzice utilizarea datelor personale sensibile sau deduse (cum ar fi convingerile politice, religia ori starea de sănătate) în scop electoral – România nu dispune încă de un cadru normativ adaptat acestui tip de amenințare hibridă iar lipsa unor măsuri interne adecvate expune procesul democratic românesc la riscuri majore. Adoptarea unei legislații naționale aliniate standardelor europene, care să interzică folosirea datelor personale în campanii și să reglementeze strict utilizarea tehnologiilor digitale în comunicarea politică, este esențială pentru apărarea integrității votului și consolidarea încrederii cetățenilor în democrație.

O altă concluzie vizează necesitatea consolidării mecanismelor de sesizare și intervenție împotriva comportamentului sistemic de manipulare digitală a votului. Deși utilizatorii pot raporta conținut direct către platformele sociale, aceste plângeri individuale sunt rareori eficiente în fața unor rețele organizate de conturi false, care acționează coordonat și disimulat. Trolarea, răspândirea mesajelor irelevante sau polarizante, și apariția unor conturi nou-create, fără activitate anterioară, sunt semnale ale unui comportament sistemic pe care doar platformele – prin accesul la date și algoritmi interni- îl pot identifica în timp real. În acest sens, este esențial ca legislația să prevadă obligații clare pentru platforme în detectarea și sancționarea acestor rețele. Totodată, este necesară întărirea pârghiilor instituționale prin care utilizatorii pot sesiza astfel de comportamente, precum platforma #nofake gestionată de Ministrul Cercetării, Inovării şi Digitalizării sau mecanismul european de reclamații către AMCOM. Însă pentru ca aceste instrumente să funcționeze eficient, ele trebuie dublate de campanii de informare, colaborare trans-instituțională și standarde clare de transparență impuse platformelor digitale.

DOWNLOAD FULL ARTICLE

Bibliografie

1. Abidin, C. (2016). Aren’t these just young, rich women doing vain things online? Influencer selfies as subversive frivolity. Social Media + Society, 2(2). https://doi.org/10.1177/2056305116641342.

2. Androniciuc, A.I. 2019, Impactul rețelelor sociale asupra campaniilor politice moderne.https://doctorat.feaa.uaic.ro/doctoranzi/pagini/Androniciuc_Andra_Ioana/Documents/20Androniciuc.pdf.

3. Băbălău, A., Drept financiar, Editura Sitech, Craiova, 2015.

4. Băbălău, A., Drept financiar, partea generală, Editura Universitaria, Craiova, 2004

5. Bastos, M. T., & Mercea, D. (2019). The Brexit botnet and user-generated hyperpartisan news. Social Science Computer Review, 37(1), 38–54. https://doi.org/10.1177/0894439317734157.

6. Berger, J., & Milkman, K. L. (2012). What Makes Online Content Go Viral? Journal of Marketing Research, 49(2), 192–205.

7. Bradshaw, S., & Howard, P. N. (2019). The Global Disinformation Order: 2019 Global Inventory of Organised Social Media Manipulation. Oxford Internet Institute. https://doi.org/10.2139/ssrn.3506910.

8. Caplan, B. (2007). The Myth of the Rational Voter: Why Democracies Choose Bad Policies. Princeton University Press.

9. CCR – Curtea Constituțională a României, Hotărârea nr. 32 din 6 decembrie 2024 privind anularea procesului electoral cu privire la alegerea Președintelui României din anul 2024.

10. Donovan, J., & Boyd, D. (2021). Stop the Presses? Optimizing TikTok’s Potential for Democracy. Journal of Democracy, 32(3), 59–73. https://doi.org/10.1353/jod.2021.0034.

11. Douek, E. (2021). Governing Online Speech: From “Posts-As-Trumps” to Proportionality and Probability. Columbia Law Review, 121(3), 759–834. https://columbialawreview.org/content/governing-online-speech/.

12. Ferrara, E., Varol, O., Davis, C., Menczer, F., & Flammini, A. (2016). The rise of social bots. Communications of the ACM, 59(7), 96–104. https://doi.org/10.1145/2818717.

13. Freberg, K., Graham, K., McGaughey, K., & Freberg, L. A. (2011). Who are the social media influencers? A study of public perceptions of personality. Public Relations Review, 37(1), 90–92. https://doi.org/10.1016/j.pubrev.2010.11.001.

14. Freelon, D., Bossetta, M., Wells, C., & Lukito, J. (2020). Black Trolls Matter: Racial and Ideological Asymmetries in Social Media Disinformation. Social Science Computer Review, 41(1), 250–267. https://doi.org/10.1177/0894439320941132.

15. Friggeri, A., Adamic, L. A., Eckles, D., & Cheng, J. (2014). Rumor Cascades. Proceedings of the International Conference on Web and Social Media (ICWSM), 8(1), 101–110. https://www.aaai.org/ocs/index.php/ICWSM/ICWSM14/paper/view/8122

16. G4Media.ro.https://www.g4media.ro/cum-fac-sa-primesc-bani-depinde-de-implicarea-ta-mecanismul-prin-care-sunt-viralizate-postarile-lui-calin-georgescu-pe-retelele-sociale-mii-de-voluntari-din-grup.html.

17. Gorwa, R. (2019). The Platform Governance Triangle: Conceptualizing the Informal Regulation of Online Content. Internet Policy Review, 8(2), 1–22. https://doi.org/10.14763/2019.2.1407.

18. HotNews. Sondaj AtlasIntel realizat între 15–20 noiembrie. Retrieved from https://hotnews.ro/sondaj-atlasintel-cine-ar-lua-cele-mai-multe-voturi-in-turul-ii-al-alegerilor-prezidentiale-1926710.

19. Hwang, K. (2020). The role of micro-influencers in the normalization of political disinformation. Journal of Media Ethics, 35(4), 205–219. https://doi.org/10.1080/23736992.2020.1812574.

20. Keller, E., & Fay, B. (2016). Influencer Marketing: How Word-of-Mouth Marketing Is Changing the Game. American Marketing Association.

21. Kruikemeier, S., & van Noort, G. (2022). Political Communication in the Digital Age. Journal of Communication, 72(1), 3–18.

22. Langer, A. I. (2010). The Politicization of Private Persona: Exceptional Leaders or the New Rule? The International Journal of Press/Politics, 15(1), 60–76.

23. Leerssen, P., Ausloos, J., Zarouali, B., Helberger, N., & de Vreese, C. (2021). Platform Ad Archives: Promises and Pitfalls. Internet Policy Review, 10(1), 1–23. https://doi.org/10.14763/2021.1.1536.

24. Marwick, A., & Lewis, R. (2017). Media Manipulation and Disinformation Online. Data & Society Research Institute. https://datasociety.net/library/media-manipulation-and-disinfo-online/.

25. Neudert, L.-M., Kollanyi, B., & Howard, P. N. (2019). Sourcing and automation of political news and information during three European elections. Social Media + Society, 5(3), 1–13. https://doi.org/10.1177/2056305119863147.

26. Phillips, W. (2015). This is Why We Can’t Have Nice Things: Mapping the Relationship between Online Trolling and Mainstream Culture. MIT Press. https://doi.org/10.7551/mitpress/9780262028946.001.0001.

27. Poțincu, L. (2019). Drept în afaceri. Dreptul muncii aplicat sferei afacerilor. Interferențe cu teoria generală a dreptului, drept civil general, drept comercial și drept al proprietății intelectuale. Volumul II, Editura CH Beck, București, 63-64.

28. Quote Investigator. (2013). Democracy Is Two Wolves and a Lamb Voting on What to Have for Lunch. https://quoteinvestigator.com/2013/11/07/wolves-lamb.

29. SRI – Serviciul Român de Informații. Document declasificat nr. 1, publicat pe 4 decembrie 2024. https://www.presidency.ro/ro/media/comunicat-de-presa1733327193

30. VIGINUM (2024), Manipulation d’algorithmes et instrumentalisation d’influenceurs Enseignements de l’élection présidentielle en Roumanie & risques pour la France, Retrieved from https://www.sgdsn.gouv.fr/publications/manipulation-dalgorithmes-et-instrumentalisation-dinfluenceurs-enseignements-de.

31. Woolley, S. C., & Howard, P. N. (2018). Computational Propaganda: Political Parties, Politicians, and Political Manipulation on Social Media. Oxford University Press. https://doi.org/10.1093/oso/9780190931407.001.0001.

Lasă un răspuns Anulează răspunsul

Trebuie să fii autentificat pentru a publica un comentariu.

Arhive

  • martie 2026
  • februarie 2026
  • ianuarie 2026
  • decembrie 2025
  • noiembrie 2025
  • octombrie 2025
  • septembrie 2025
  • august 2025
  • iulie 2025
  • iunie 2025
  • mai 2025
  • aprilie 2025
  • martie 2025
  • februarie 2025
  • ianuarie 2025
  • decembrie 2024
  • noiembrie 2024
  • octombrie 2024
  • septembrie 2024
  • august 2024
  • iulie 2024
  • iunie 2024
  • mai 2024
  • aprilie 2024
  • martie 2024
  • februarie 2024
  • ianuarie 2024
  • decembrie 2023
  • noiembrie 2023
  • octombrie 2023
  • septembrie 2023
  • august 2023
  • iulie 2023
  • iunie 2023
  • mai 2023
  • aprilie 2023
  • martie 2023
  • februarie 2023
  • ianuarie 2023
  • decembrie 2022
  • noiembrie 2022
  • octombrie 2022
  • septembrie 2022
  • august 2022
  • iulie 2022
  • iunie 2022
  • mai 2022
  • aprilie 2022
  • martie 2022
  • februarie 2022
  • ianuarie 2022
  • Supliment 2021
  • decembrie 2021
  • noiembrie 2021
  • octombrie 2021
  • septembrie 2021
  • august 2021
  • iulie 2021
  • iunie 2021
  • mai 2021
  • aprilie 2021
  • martie 2021
  • februarie 2021
  • ianuarie 2021
  • decembrie 2020
  • noiembrie 2020
  • octombrie 2020
  • septembrie 2020
  • august 2020
  • iulie 2020
  • iunie 2020
  • mai 2020
  • aprilie 2020
  • martie 2020
  • februarie 2020
  • ianuarie 2020
  • decembrie 2019
  • noiembrie 2019
  • octombrie 2019
  • septembrie 2019
  • august 2019
  • iulie 2019
  • iunie 2019
  • mai 2019
  • aprilie 2019
  • martie 2019
  • februarie 2019
  • ianuarie 2019
  • decembrie 2018
  • noiembrie 2018
  • octombrie 2018
  • septembrie 2018
  • august 2018
  • iulie 2018
  • iunie 2018
  • mai 2018
  • aprilie 2018
  • martie 2018
  • februarie 2018
  • ianuarie 2018
  • decembrie 2017
  • noiembrie 2017
  • octombrie 2017
  • septembrie 2017
  • august 2017
  • iulie 2017
  • iunie 2017
  • mai 2017
  • aprilie 2017
  • martie 2017
  • februarie 2017
  • ianuarie 2017
  • Supliment 2016
  • decembrie 2016
  • noiembrie 2016
  • octombrie 2016
  • septembrie 2016
  • august 2016
  • iulie 2016
  • iunie 2016
  • mai 2016
  • aprilie 2016
  • martie 2016
  • februarie 2016
  • ianuarie 2016
  • decembrie 2015
  • noiembrie 2015
  • octombrie 2015
  • septembrie 2015
  • august 2015
  • iulie 2015
  • iunie 2015
  • mai 2015
  • aprilie 2015
  • martie 2015
  • februarie 2015
  • ianuarie 2015

Calendar

aprilie 2026
L Ma Mi J V S D
 12345
6789101112
13141516171819
20212223242526
27282930  
« mart.    

Categorii

  • Abstract
  • Actualitate legislativă
  • Alte categorii
  • Din jurisprudența CCR
  • Din jurisprudența ÎCCJ
  • Editorial
  • HP
  • Interviu
  • Prefata
  • Recenzie de carte juridică
  • RIL
  • Studii, articole, opinii
  • Studii, discuții, comentarii (R.  Moldova și Ucraina)
  • Supliment 2016
  • Supliment 2021

© 2023 Copyright Universul Juridic. Toate drepturile rezervate. | Theme by ThemeinProgress | Proudly powered by WordPress