Dezinformarea în campaniile electorale
Igor Soroceanu - mai 2, 2025Introducere. Dezinformarea și acțiunile străine de manipulare a informațiilor și ingerințelor străine (foreign information manipulation and interference), în continuare FIMI, utilizează o serie de tactici, tehnici și proceduri pentru a manipula informațiile și a influența percepția publicului. Printre exemplele cele mai frecvente se numără:
• polarizarea prin promovarea unor puncte de vedere extreme pentru a adânci conflictele din interiorul unei societăți, lucru care poate îngreuna dezbaterea democratică;
• manipularea conținutului prin modificarea unor informații sau a unor produse media autentice, cum ar fi editarea de imagini sau materiale video pentru a le schimba sensul;
• crearea de conținut fabricat, cum ar fi site-uri web false care imită surse legitime, materiale deepfake și materiale audio și vizuale generate de inteligența artificială (IA);
• crearea de discursuri false, falsuri privind identitatea și utilizarea abuzivă a conturilor diplomatice sau instituționale pe platformele de comunicare socială;
• discreditarea surselor de încredere și reîncadrarea contextului;
• amplificarea prin utilizarea boților, a trolilor sau a rețelelor coordonate pentru a spori în mod artificial vizibilitatea și credibilitatea dezinformării;
• utilizarea de instrumente cibernetice, inclusiv pirateria informatică și alte activități cibernetice pentru a fura, modifica sau fabrica informații.
Într-o democrație funcțională, cetățenii își pot exprima liber opiniile, pot face alegeri în cunoștință de cauză și se pot angaja într-o dezbatere deschisă fără interferențe răuvoitoare. Dezinformarea, manipularea informațiilor și ingerințele au consecințe profunde asupra drepturilor omului și a valorilor democratice. Acestea pun în primejdie libertatea de gândire, dreptul la viață privată, dreptul la participare democratică și subminează încrederea cetățenilor în instituțiile democratice și în mass-media.
Alegerile reprezintă o oportunitate cu impact puternic pentru campaniile de dezinformare, având în vedere nivelul ridicat de atenție pe care îl primesc și importanța rezultatelor acestora. Ingerințele în procesele electorale pot include o gamă largă de tehnici, cum ar fi utilizarea discursurilor care generează dezbinare, descurajarea persoanelor să meargă la vot, intimidarea, punerea sub semnul întrebării a credibilității procesului electoral și a rezultatului alegerilor, promovarea abținerii sau a voturilor invalide, vizarea anumitor candidați și partide politice, finanțarea ilegală a campaniilor, darea sau luarea de mită la nivelul alegătorilor și desfășurarea de atacuri cibernetice asupra infrastructurii legate de alegeri. Campaniile de dezinformare nu se opresc la urne: ele se desfășoară înaintea alegerilor, în cursul lor și după alegeri[1].
Gradul de investigare a problemei la momentul actual, scopul cercetării. La momentul actual, importanța și scopul de elaborare a prezentului demers științific apare din intenția autorului de a releva în prim-plan unele repere ale dezinformării în cadrul campaniilor electorale. Totodată, apare şi necesitatea stringentă de efectuare a unei analize ample referitor la esenţa subiectului cercetării.
Materiale utilizate și metode aplicate. În procesul elaborării articolului științific ne-am ghidat de diverse metode de cercetare științifică care au făcut posibilă investigarea corespunzătoare a subiectului, dintre care putem enumera: metoda analizei, metoda sintezei, metoda deducției, metoda sistemică, metoda istorică, precum și metoda comparativă.
Baza teoretico-juridică a demersului științific cuprinde materialul definitoriu, precum legislația națională și diverse surse din literatura de specialitate națională și internațională, cadrul juridic european, practica jurisprudenței Uniunii Europene și sursele deschise din mediul online – care direct sau indirect, abordează esența și conținutul subiectului supus cercetării.
Rezultatele obţinute în baza analizelor ştiinţifice efectuate. Dicționarul Cambridge definește știrile false ca „povestiri false care par a fi știri, răspândite pe internet sau utilizând alte mijloace de informare în masă, create, în general, pentru a influența opiniile politice sau ca o glumă”[2].
Dezinformarea în campaniile electorale este un subiect din ce în ce mai discutat, mai ales în contextul digitalizării comunicării politice. E un fenomen complex, care are potențialul de a influența grav rezultatele alegerilor și percepția publicului asupra candidaților și politicilor.
Printre formele frecvente se numără: știri fabricate, manipularea imaginilor, campanii coordonate prin conturi false pe rețele sociale și distorsionarea declarațiilor reale. De exemplu, în România, alegerile prezidențiale din 2014 și cele parlamentare din 2020 au fost marcate de campanii cu mesaje alarmiste și manipulări online. În SUA, alegerile din 2016 și 2020 au fost afectate de teorii conspiraționiste și intervenții externe, în special prin rețele sociale.
O sarcină extrem de dificilă a echipelor de comunicare din cadrul campaniilor electorale a fost, de-a lungul timpului, profilarea votantului. Datorită bazelor de date, IA poate crea profiluri detaliate ale votanților bazate pe demografie, pe comportamentul în cadrul rețelelor sociale și chiar din alte surse publice. Înțelegerea mai bună a tipurilor de votanți ajută echipele de campanie să genereze mesaje personalizate și să le difuzeze direct către grupurile cu un impact major. Mai exact, IA are capacitatea de a culege informații astfel încât să profileze cât mai bine oamenii cu drept de vot și să îi ,,pună pe căprării” astfel încât mesajul electoral să fie unul potrivit grupului. Inteligența artificială are capacitatea de a personaliza conținutul în funcție de profilul utilizatorului, ceea ce duce la crearea unor „bule de informații”. Alegătorii pot fi expuși în mod repetat la informații care confirmă propriile lor convingeri, reducând diversitatea opiniilor la care sunt expuși. Această personalizare excesivă poate polariza societatea și influența deciziile electorale într-un mod care subminează o democrație sănătoasă.
Mergând și mai departe, campaniile publicitare sunt optimizate tot datorită IA, ajustând automat conținutul și frecvența pe baza performanței. De exemplu, reclamele se ajustează pentru a mări raza de acțiune sau interacțiunile cu un anumit grup-țintă, reducând costurile și creșterea impactului. În plus, fiecare candidat are acum chat-bot care interacționează automatizat cu alegătorii care au diferite întrebări sau, mai mult decât atât, inițiază conversații, trimițând oamenilor mesaje cu conținut electoral. În 2024, dacă este folosită corect, IA a ajuns la un nivel la care poate să analizeze sentimentele votanților și să monitorizeze opinia publică reușind să afle percepțiile publicului față de candidați, din datele furnizate de rețelele sociale. Aceste analize pot ajuta echipele de campanie să ajusteze rapid strategiile în funcție de feedback-ul în timp real și de reacțiile publicului la diferite mesaje.
Instrumentele de inteligență artificială pot produce conținut fals de înaltă calitate, fie că este vorba de text, imagini sau videoclipuri. Această capacitate poate fi exploatată pentru a crea și răspândi dezinformări, ceea ce face din ce în ce mai dificil pentru alegători să facă diferența între informațiile reale și cele fabricate. Impactul potențial asupra opiniei alegătorilor și a rezultatelor alegerilor este alarmant. Actorii politici, inclusiv guvernele, folosesc acum inteligența artificială pentru a manipula sentimentele publice. De la videoclipuri deepfake care imită figuri politice până la propagandă generată de IA, aceste instrumente pot modela percepția publică și pot eroda încrederea în instituțiile democratice. Această manipulare subminează integritatea procesului electoral.
Totodată, dezinformarea generată de IA este adesea sofisticată și dificil de detectat. Modelele actuale de IA sunt concepute pentru a genera conținut plauzibil, nu pentru a verifica veridicitatea acestuia. Acest lucru face ca dezinformarea generată de IA să fie mai greu de identificat pentru verificatorii de fapte și pentru sistemele de detectare, permițând narațiunilor false să se amestece cu cele reale. Așa cum spuneam și mai sus, modelele de IA sunt adesea instruite pe date disponibile public, iar multe surse de înaltă calitate blochează accesul acestor modele la conținutul lor. Aceasta înseamnă că IA se bazează pe surse mai puțin credibile, crescând probabilitatea de a produce conținut părtinitor sau fals, ceea ce poate afecta negativ opinia publică și procesul electoral.
Tehnologia „deepfake” este folosită pentru a crea conținut video sau audio extrem de realist, care poate părea autentic. Aceasta poate fi utilizată pentru a denatura realitatea, să discrediteze candidați sau să manipuleze opinia publică într-un mod foarte convingător, afectând astfel deciziile de vot și integritatea procesului electoral. Totodată, dezinformarea continuă și diseminarea de mesaje false prin IA pot descuraja cetățenii să participe la alegeri, fie din cauza neîncrederii în candidați, fie din cauza sentimentului de confuzie și deziluzie cu privire la procesul electoral. Această scădere a participării poate avea efecte negative asupra reprezentativității și legitimității procesului democratic. Răspândirea dezinformării generate de IA creează un climat de neîncredere. Când alegătorii sunt bombardați cu narațiuni conflictuale sau false, aceștia pot pierde încrederea atât în sistemul electoral, cât și în sursele de informații de încredere. Această eroziune a încrederii reprezintă unul dintre cele mai mari riscuri pe termen lung pentru instituțiile democratice. Capacitatea IA de a imita candidați, de a fabrica evenimente și de a răspândi mesaje polarizante poate destabiliza procesul electoral. Alegătorii pot fi induși în eroare, iar acest lucru poate duce la opinii distorsionate sau chiar la apatie electorală, ceea ce, la rândul său, afectează participarea la vot și slăbește angajamentul democratic.
Ce soluții avem pentru a combate deepfake-ul? Pentru a aborda aceste provocări, trebuie actualizate cadrele de reglementare pentru a include ghiduri privind utilizarea IA în contexte publice și politice. Aceste reguli ar trebui să se concentreze pe transparență, responsabilitate și prevenirea utilizării abuzive a IA în alegeri. Apoi, dezvoltarea de instrumente avansate de detectare este esențială pentru identificarea și combaterea dezinformării generate de IA în timp real. Modelele de învățare automată și sistemele de IA care se concentrează pe identificarea conținutului sintetic pot ajuta verificatorii de fapte și platformele să abordeze eficient dezinformarea. Și nu în ultimul rând, creșterea gradului de conștientizare publică cu privire la capacitățile și riscurile IA este iarăși un alt pas important. Educația publicului privind identificarea conținutului generat de IA poate face ca oamenii să fie mai rezistenți la campaniile de dezinformare.
Intersecția dintre IA și alegeri este locul în care tehnologia se întâlnește cu democrația. Potențialul inteligenței artificiale este imens, dar la fel sunt și riscurile dacă nu sunt controlate. Trebuie să luăm măsuri pro-active prin reglementări, tehnologii de detectare și educație pentru a ne asigura că IA întărește, mai degrabă decât să submineze, procesele noastre democratice.
În continuitatea cercetării vom enunța unele exemple de dezinformare care au avut loc în realitatea obiectivă:
• Republica Estonia. În timpul alegerilor, o afirmație falsă s-a răspândit pe rețelele sociale, sugerând că alegătorii ar trebui să aducă propriile pixuri la secțiile de votare, deoarece cele oferite erau „ștergătoare” și ar putea altera voturile;
• Republica franceză. Înaintea alegerilor prezidențiale, grupuri extremiste din Franța au răspândit dezinformări împotriva vaccinării și restricțiilor COVID-19, promovând teorii ale conspirației pentru a crea neîncredere în instituții;
• Republica Federală Germania. În Germania, grupurile de extremă dreaptă au propagat narațiuni despre fraude electorale, preluate de la mișcările de negare a alegerilor din SUA, pentru a submina procesele democratice;
• Republica slovacă. Campaniile de dezinformare din Slovacia au inclus clipuri audio generate de IA, în care lideri politici păreau să discute despre manipularea alegerilor. Acestea au fost distribuite pe scară largă înainte de a fi dezmințite;
• Regatul Spaniei. În alegerile din 2023, au circulat povești false despre interferențe străine și fraude electorale, incluzând afirmații că oficialii UE făceau campanie pentru anumiți candidați;
• Brexit (cuvânt telescopat din „British” și „exit”, a reprezentat retragerea din Uniunea Europeană și din Euratom a Regatului Unit). În campania pentru Brexit, au fost folosite articole și postări generate de IA pentru a induce în eroare publicul cu privire la consecințele ieșirii Marii Britanii din Uniunea Europeană, contribuind la polarizarea electoratului[3].
Rețelele de socializare au fost apreciate pentru că au pus la dispoziție informații democratice și pentru promovarea conversației în mediul online. Acestea fac ca informațiile politice să fie mai accesibile și ajută alegătorii să facă alegeri mai informate. În hotărârea sa din 10 martie 2009, în cauza Times Newspaper Ltd împotriva Regatului Unit, Curtea Europeană a Drepturilor Omului a afirmat că: „prin prisma accesibilității și capacității sale de a stoca și comunica cantități vaste de informații, internetul joacă un rol important în îmbunătățirea accesului publicului la știri și în facilitarea difuzării informațiilor, în general”[4].
Chiar dacă impactul dezinformării variază de la o țară la alta, răspândirea rapidă a fenomenului, sofisticarea sa tehnică, în ceea ce privește viteza, amploarea și extrateritorialitatea, percepția sa inofensivă de către societate și cerințele sale de finanțare relativ limitate constituie schimbări și amenințări majore, nu numai pentru procesul electoral, dar și pentru democrațiile noastre, în general[5].
În Europa, libertatea de exprimare este consacrată în articolul 10[6] din Convenția Europeană a Drepturilor Omului[7] și în articolul 11[8] din Carta Drepturilor Fundamentale a Uniunii Europene[9]. În cauza Handyside împotriva Regatului Unit din 7 decembrie 1976[10], Curtea Europeană a Drepturilor Omului a considerat că libertatea de exprimare este aplicabilă nu numai „informațiilor” sau „ideilor” care sunt primite favorabil sau considerate inofensive sau o chestiune de indiferență, ci și celor care jignesc, șochează sau deranjează statul sau orice sector al populației. Aceasta se încadrează în valorile pluralismului, toleranței și deschiderii, fără de care nu există „societate democratică”. Aceasta înseamnă, printre altele, că fiecare „formalitate”, „condiție”, „restricție” sau „pedeapsă” impusă în acest domeniu trebuie să fie proporțională cu scopul legitim urmărit. Într-o altă hotărâre[11], Curtea de la Strasbourg a considerat că în campaniile electorale, difuzarea știrilor trebuie să aibă loc chiar dacă această știre poate fi considerată ca fiind falsă. Articolul 10 din Convenție nu interzice ca atare discutarea sau diseminarea informațiilor primite, chiar dacă se suspectează cu tărie că aceste informații ar putea să nu fie veridice. A sugera altfel ar priva persoanele de dreptul de a-și exprima punctele de vedere și opiniile cu privire la declarațiile făcute în mass-media și, astfel, ar pune o restricție nerezonabilă a libertății de exprimare prevăzută în articolul 10 al Convenției.
Statele membre ale Consiliului Europei au obligația pozitivă de a asigura eficiența libertății de exprimare: acestora li se cere să creeze un mediu favorabil pentru participarea la dezbaterea publică a tuturor persoanelor implicate, permițându-le să-și exprime opiniile și ideile fără teamă. Statul nu trebuie doar să se abțină de la orice imixtiune în libertatea de exprimare a persoanei, ci are și o „obligație pozitivă” de a-i proteja dreptul la libertatea de exprimare împotriva atacurilor, inclusiv din partea persoanelor private[12].
Pe lângă jurisprudența Curții, trebuie făcută referire la standardele adoptate de Consiliul Europei: Recomandarea CM/Rec(2016)5 a Comitetului de Miniștri către statele membre privind libertatea internetului (13 aprilie 2016), care solicită statelor membre să creeze un mediu favorabil pentru libertatea internetului, inclusiv, printre altele, furnizarea de programe de educare privind mijloacele mass-media și digitale. Trebuie reamintit faptul că „discursul de ură” a fost definit de Comitetul de Miniștri în 1997. Consiliul Europei a adoptat Convenția privind criminalitatea cibernetică la Budapesta la 23 noiembrie 2001 și se poate presupune că un atac cibernetic ar putea fi interpretat ca o formă de dezinformare. Până de curând, amenințările cibernetice erau considerate a avea fie consecințe fizice, fie economice, dar dezinformarea poate fi considerată acum ca având potențialul de a dăuna procesului democratic.
Restricțiile privind publicitatea, limitate la perioada campaniilor electorale, nu ar încălca libertatea de a presta servicii și libertatea de exprimare în ceea ce privește standardele Uniunii Europene, mai ales având în vedere interesul public general din joc. Pentru a acoperi activitatea campaniei digitale, perioada electorală trebuie să fie precis determinată de lege și să nu fie prea scurtă. Există țări în care această perioadă este foarte scurtă (Azerbaidjan, Grecia, Lituania, Macedonia de Nord). În acest context, partidele și candidații nu sunt obligați să înregistreze veniturile și cheltuielile efectuate înainte de această perioadă, chiar dacă sunt legate de o campanie electorală. Așadar, valoarea perioadelor scurte de campanie trebuie pusă la îndoială și extinsă pentru a evita riscul concurenței neloiale și a ingerinței campaniilor digitale semnificative înainte de începerea campaniei electorale oficiale. De exemplu, cu șase luni înainte de alegerile generale din Franța, orice publicitate a realizărilor sau a conducerii organismului public care se desfășoară într-o circumscripție electorală în care urmează să aibă loc alegeri este interzisă (articolul L.52-1 din Codul electoral francez). O astfel de regulă ar putea fi transpusă cu o limită de timp mai scurtă pentru a reglementa sau a interzice orice diseminare a dezinformării la scară largă și artificială[13].
Formele de dezinformare în campaniile electorale pot fi următoarele:
1. Fake news (știri false): articole sau postări cu titluri șocante, care conțin informații fabricate. Termenul „fake news” (în română: știri false) se referă la informații prezentate ca fiind știri reale, dar care sunt intenționat false sau înșelătoare. Scopul lor poate fi: manipularea opiniei publice, obținerea de trafic online și bani din reclame, discreditarea unor persoane, organizații sau idei și/sau influențarea alegerilor politice. În vederea detectării știrilor false, putem utiliza următoarele metode de verificare: verificarea sursei, „este un site de încredere!?”; căutarea autorului, „e real sau inventat!?”; căutarea știrii și pe alte site-uri; atenția la titluri senzaționale sau exagerate; analiza datei publicării, poate fi o știre veche recirculată; verificarea imaginilor, putem face o căutare inversă pe Google;
2. Manipularea imaginilor sau videoclipurilor: deepfake-uri, videoclipuri scoase din context, imagini modificate. Manipularea imaginilor și videoclipurilor este una dintre cele mai răspândite și periculoase forme de dezinformare în era digitală. Acestea pot părea reale la prima vedere, dar sunt alterate intenționat pentru a transmite un mesaj fals. Există următoarele tipuri de manipulare a imaginilor: photoshop/editare digitală: elemente adăugate sau eliminate (ex: persoane, obiecte, texte); culori și expresii modificate pentru a crea o anumită impresie; imagini scoase din context: fotografie reală, dar folosită pentru a susține o poveste falsă (exemplu: o imagine dintr-un protest din 2013 prezentată ca fiind de la un eveniment din 2025); imagini generate de IA (deepfakes sau imagini ,,sintetice”): putem vedea fețe complet false sau persoane care nu există ori unele sunt atât de realiste încât îi pot păcăli chiar și pe cei atenți. La fel, există și diferite tipuri de manipulare a videoclipurilor: deepfake-uri (video): fețele și vocile unor persoane sunt suprapuse peste altele folosind inteligență artificială, poate da impresia că o persoană spune sau face ceva ce nu a făcut niciodată; montaj/editare: tăierea unor secvențe pentru a schimba sensul unui discurs, combinarea mai multor videoclipuri pentru a crea o „narațiune” falsă; modificarea vitezei: redarea unui videoclip mai lent sau mai rapid pentru a schimba percepția (ex: cineva pare beat sau nervos);
[1] Dezinformarea și reziliența democratică. Poate fi accesată la următorul link: https://www.consilium.europa.eu/ro/policies/disinformation-and-democratic-resilience/, vizualizat la 26.02.2025.
[2] „Fake News–Definition und Rechtslage”, Wissenschaftlicher Dienste, Deutscher Bundestag, 2017.
[3] Alexandru Dan, Cum influențează IA campaniile electorale? Exemple de dezinformare, din 12 martie 2024, București.
[4] Hotărârea CEDO: Times Newspaper Ltd vs Regatui Unit din 10.03.2009, nr. 3002/03 și nr. 23676/03.
[5] Gartner, „Gartner dezvăluie previziunile de top pentru organizațiile IT și utilizatori pe anul 2018 și nu numai”, comunicat de presă, 3 octombrie 2017.
[6] „Orice persoană are dreptul la libertatea de exprimare. Acest drept include libertatea de a avea opinii și de a primi și transmite informații și idei fără ingerința autorităților publice și indiferent de frontiere. Prezentul articol nu împiedică statele să impună licențierea companiilor de radiodifuziune, televiziune sau cinematografie. Exercitarea acestor libertăți, întrucât implică atribuții și responsabilități, poate fi supusă formalităților, condițiilor, restricțiilor sau sancțiunilor astfel cum sunt prevăzute de lege și care sunt necesare într-o societate democratică, în interesul securității naționale, integrității teritoriale sau siguranței publice, pentru prevenirea dezordinii sau a infracțiunilor, pentru protecția sănătății sau a moralei, pentru protejarea reputației sau drepturilor altora, pentru prevenirea divulgării informațiilor primite în mod confidențial sau pentru menținerea autorității și imparțialității sistemului judiciar”.
[7] Convenţia pentru apărarea drepturilor omului şi a libertăţilor fundamentale din 04.11.1950, adoptată la Roma.
[8] „Orice persoană are dreptul la libertatea de exprimare. Acest drept include libertatea de a avea opinii și de a primi și transmite informații și idei fără ingerința autorităților publice și indiferent de frontiere”.
[9] Carta Drepturilor Fundamentale a Uniunii Europene (2012/C 326/02), Jurnalul Oficial al Uniunii Europene nr. C-326/392 din 26.10.2012.
[10] Hotărârea CEDO: Handyside vs Regatul Unit din 07.12.1976, nr. 5493/72.
[11] Hotărârea CEDO: Salov vs Ucrainei din 06.09.2005, nr. 65518/01.
[12] Hotărârea CEDO: Dink vs Turciei din 14.09.2010, nr. 2668/07, nr. 6102/08, nr. 30079/08, nr. 7072/09 și nr. 7124/09.
[13] Yves-Marie Doublet, Disinformation and electoral campaigns, Strasbourg, 2019, ISBN 978-92-871-8910-3.
Arhive
- martie 2026
- februarie 2026
- ianuarie 2026
- decembrie 2025
- noiembrie 2025
- octombrie 2025
- septembrie 2025
- august 2025
- iulie 2025
- iunie 2025
- mai 2025
- aprilie 2025
- martie 2025
- februarie 2025
- ianuarie 2025
- decembrie 2024
- noiembrie 2024
- octombrie 2024
- septembrie 2024
- august 2024
- iulie 2024
- iunie 2024
- mai 2024
- aprilie 2024
- martie 2024
- februarie 2024
- ianuarie 2024
- decembrie 2023
- noiembrie 2023
- octombrie 2023
- septembrie 2023
- august 2023
- iulie 2023
- iunie 2023
- mai 2023
- aprilie 2023
- martie 2023
- februarie 2023
- ianuarie 2023
- decembrie 2022
- noiembrie 2022
- octombrie 2022
- septembrie 2022
- august 2022
- iulie 2022
- iunie 2022
- mai 2022
- aprilie 2022
- martie 2022
- februarie 2022
- ianuarie 2022
- Supliment 2021
- decembrie 2021
- noiembrie 2021
- octombrie 2021
- septembrie 2021
- august 2021
- iulie 2021
- iunie 2021
- mai 2021
- aprilie 2021
- martie 2021
- februarie 2021
- ianuarie 2021
- decembrie 2020
- noiembrie 2020
- octombrie 2020
- septembrie 2020
- august 2020
- iulie 2020
- iunie 2020
- mai 2020
- aprilie 2020
- martie 2020
- februarie 2020
- ianuarie 2020
- decembrie 2019
- noiembrie 2019
- octombrie 2019
- septembrie 2019
- august 2019
- iulie 2019
- iunie 2019
- mai 2019
- aprilie 2019
- martie 2019
- februarie 2019
- ianuarie 2019
- decembrie 2018
- noiembrie 2018
- octombrie 2018
- septembrie 2018
- august 2018
- iulie 2018
- iunie 2018
- mai 2018
- aprilie 2018
- martie 2018
- februarie 2018
- ianuarie 2018
- decembrie 2017
- noiembrie 2017
- octombrie 2017
- septembrie 2017
- august 2017
- iulie 2017
- iunie 2017
- mai 2017
- aprilie 2017
- martie 2017
- februarie 2017
- ianuarie 2017
- Supliment 2016
- decembrie 2016
- noiembrie 2016
- octombrie 2016
- septembrie 2016
- august 2016
- iulie 2016
- iunie 2016
- mai 2016
- aprilie 2016
- martie 2016
- februarie 2016
- ianuarie 2016
- decembrie 2015
- noiembrie 2015
- octombrie 2015
- septembrie 2015
- august 2015
- iulie 2015
- iunie 2015
- mai 2015
- aprilie 2015
- martie 2015
- februarie 2015
- ianuarie 2015
Calendar
| L | Ma | Mi | J | V | S | D |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | ||
| 6 | 7 | 8 | 9 | 10 | 11 | 12 |
| 13 | 14 | 15 | 16 | 17 | 18 | 19 |
| 20 | 21 | 22 | 23 | 24 | 25 | 26 |
| 27 | 28 | 29 | 30 | |||
Lasă un răspuns
Trebuie să fii autentificat pentru a publica un comentariu.