Un raport detaliat despre rețelele coordonate, mesajele distorsionate și valul de conținut manipulator care modelează percepția publică înaintea alegerilor
Raportul publicat la finalul lunii septembrie de organizația Expert Forum analizează una dintre cele mai ample operațiuni de dezinformare observate în Republica Moldova în ultima perioadă. Într-un interval de doar trei săptămâni – între 1 și 23 septembrie – cercetătorii au monitorizat aproape zece mii de videoclipuri distribuite pe TikTok, provenind din peste șapte sute de conturi suspecte. Acestea au acumulat peste 93 de milioane de vizualizări și 1,5 milioane de aprecieri, un volum impresionant pentru o țară cu puțin peste două milioane de locuitori.
- Analiza arată că nu este vorba despre conținut spontan, ci despre o infrastructură bine organizată, care folosește conturi automate, producție de materiale generate de inteligență artificială și mecanisme de redistribuire coordonată. Scopul este clar: influențarea percepției publice printr-un flux constant de mesaje simplificate, alarmiste și repetate, care creează senzația de haos și neîncredere în instituțiile statului.
- Temele dominante sunt atent calibrate pe nemulțumirile societății. Aproape o cincime dintre postări se concentrează pe criticarea administrației locale – drumuri, servicii publice, birocrație – toate prezentate ca dovezi ale eșecului statului. O altă proporție similară vizează direct politicienii și partidele de guvernare, în special președinta Maia Sandu și echipa sa, portretizați ca incompetenți, corupți sau supuși intereselor occidentale.
Citește și: Victor Negrescu și alți eurodeputați cer UE să accelereze aderarea Republicii Moldova
- O altă direcție de atac, prezentă în aproape 19% dintre materiale, o reprezintă procesul electoral. Mesajele induc ideea că alegerile ar fi deja fraudate, că observatorii sunt controlați politic sau că votul cetățeanului nu mai contează. Totul este construit pentru a semăna suspiciune înainte ca votul să aibă loc. Alte teme importante sunt cele economice – scumpiri, sărăcie, migrație – și cele geopolitice, în care Moldova este descrisă ca o victimă a confruntării dintre Occident și Rusia.
- Dincolo de conținut, raportul evidențiază modul în care se construiește amplificarea acestor mesaje. O parte dintre conturi produc conținut original generat cu ajutorul inteligenței artificiale, în timp ce altele se ocupă exclusiv de redistribuirea și replicarea videoclipurilor. Un procent semnificativ dintre comentarii este duplicat identic, semn al unei activități automatizate. Mecanismul nu mizează pe calitatea argumentelor, ci pe volum și insistență: mii de mesaje, milioane de vizualizări, teme repetate până când devin parte din conversația publică.
- Raportul arată că aceste operațiuni nu par a fi complet centralizate, ci mai degrabă alcătuiesc un ecosistem fragmentat, dar coerent în obiective. Conturile se susțin reciproc, redistribuie aceleași materiale și reacționează rapid la evenimentele interne, transformând incidente minore în simboluri ale „abuzului sistemului”. Un exemplu este cazul unui bolnav de cancer amendat, devenit viral prin prezentarea sa ca dovadă a cruzimii guvernului. În alte cazuri, incidente administrative sunt transformate în metafore politice, menite să ilustreze corupția generalizată.
- Raportul avertizează că o astfel de infrastructură informațională reprezintă un risc major pentru reziliența democratică a Republicii Moldova. Într-o societate fragilă, afectată de crize economice și presiuni externe, fluxul constant de mesaje manipulative poate eroda încrederea în instituții, în procesul electoral și în însăși ideea de adevăr public.
În intervalul 1–23 septembrie au fost urmărite peste 700 de conturi pe TikTok; 498 dintre ele au produs 9.882 de videoclipuri care au strâns 93,1 milioane de vizualizări, peste 204.000 de distribuiri și 1,5 milioane de like-uri. Cifrele provin din descărcarea postărilor și a metadatelor oferite de platformă (play_count, share_count, digg_count) și arată un volum de comunicare care depășește scara pieței media locale.
Raportul notează o scădere pronunțată a vizualizărilor și distribuirilor în ultimele șapte zile din fereastra analizată, tendință atribuită mai multor posibile explicații: limitări impuse de platformă conturilor suspecte de inautenticitate, ștergerea conținutului care încalcă regulile sau migrarea deliberată către alte conturi/rețele mai greu de monitorizat. Concluzia: dinamica e parțial vizibilă și trebuie interpretată cu prudență.
Monitorizarea a identificat trei vârfuri de viralizare care au alimentat teme recurente. Pe 3 septembrie s-a răspândit un set de clipuri despre decesul unui bolnav de cancer și amenda primită de soția sa pentru corupție electorală; formatul emoțional (văduvă înlăcrimată, comunitate revoltată) a fixat narațiunea „abuzului de stat”.
Pe 12 septembrie, contul @raportdezastru a publicat un video despre un gard presupus ilegal; cazul — aparent minor — a fost reîncadrat ca metaforă a „persecutării” unui partid (DA), comparativ cu „imunitatea” privilegiaților. Acesta este un exemplu de transformare a incidentelor locale în simboluri politice.
Pe 19 septembrie, contul @groza5572 (pro-Blocul Patriotic) a atins aproape un milion de vizualizări cu un mesaj populist ce combină promisiuni sociale, protecționism economic și apărarea „valorilor tradiționale”, dublate de acuzații aduse guvernării.
Distribuția temelor arată că 20,4% din postări au vizat guvernarea locală — priorități de cheltuieli, respectul față de cetățeni, imagini cu drumuri stricate, asfalt „peticit”, uneori legate de acuzații de corupție. Tema circulă aproape egal în română și rusă, cu reciclări din scandaluri reale.
Tema „actorilor politici” are 20,1% din volum și vizează în special Maia Sandu și PAS; apar și figuri europene (ex. declarații ale lui Emmanuel Macron) reîncadrate ca „surogat de campanie”. Conținutul este personalizat, emoțional, fiind difuzat preponderent în rusă de pe conturi marcate cu potențial inautentic.
„Procesele electorale” însumează 18,7%: mesaje despre alegeri „deja trucate”, invocarea abuzului de resurse administrative sau a excluderii observatorilor; în paralel, se repetă avertismente că, dacă câștigă PAS, Moldova își va „pierde statalitatea” și va fi „înghițită de România”, până la conspirații privind o „invazie” în Transnistria. Conținutul este repetitiv și preponderent în rusă.
Tema „economic & energie” (14,6%) descrie țara „golită de resurse” din cauza costurilor la energie și a închiderii fabricilor, legându-se de migrația tinerilor și de pierderea competitivității. „Securitate & război” reprezintă 12,3% și prezintă Moldova ca stat neutru transformat în „pion al Occidentului”, cu trimitere la exerciții NATO, sancțiuni și războiul din Ucraina.
La nivel de tehnici, raportul inventariază patternuri: framing prin frică și pierdere („război”, „colapsul suveranității”), folosirea de „statistici” fără surse solide, etichete repetitive („președinte fals”, „dictatură”, „Titanicul = UE”), comparații selective (cu Georgia/România) pentru a sugera inevitabilitatea conflictului dacă Moldova continuă integrarea europeană.
O secțiune separată analizează 10.007 comentarii colectate din lista de conturi cu risc ridicat: 3.442 (34%) erau duplicate exacte — același text sau tipar de emoji-uri apărut de cel puțin 10 ori —, ceea ce indică un nivel înalt de coordonare. Diferențele între rețele sunt clare: la cele 93 de conturi care produc conținut cu AI, comentariile sunt aproape ermetice și exclusiv anti-PAS, fără nuanțe; la cele 151 de conturi care reciclează conținut real, discuția e mai amestecată (atât negative, cât și pro).
Metadatele ilustrate în rapoarte vizuale aferente acestor două grupuri arată, pentru conturile AI, 760 de postări filtrate și 5.755 de comentarii în perioada analizată, cu vârfuri de activitate în prima jumătate a lunii; pentru conturile „reposter” apar 235 de postări filtrate și 4.218 comentarii, cu spike-uri mai dispersate. „Wordcloud-urile” din comentarii includ frecvent etichete de tip „jos PAS”/„votăm PAS” și serii de emoji repetitive, tipice amplificării artificiale.
Lista de canale monitorizate include și pagini pro-ruse, precum @tv.6press (amendată în 2025 de Consiliul Audiovizualului cu 85.000 lei pentru publicitate politică în favoarea lui Ilan Șor și a Blocului „Pobeda”) și @primulinmoldova; acestea postează și divertisment/știri mondene, dar au intrat în eșantion strict datorită conținutului politic. Au fost excluse conturile politicienilor/influencerilor persoane reale pentru a nu interfera cu exprimarea legitimă.
Raportul semnalează și „contaminarea regională”: conturi din Belarus — @maxim0440.6, @liubaz7, @mashanews (unele ulterior șterse) — au intrat în feed-urile moldovenilor prin hashtag-uri despre Maia Sandu; invers, conturi cu pondere covârșitoare de divertisment și audiență mică din Moldova (ex. @dratuti45, ~6% audiență MD) au fost excluse pentru a nu distorsiona relevanța locală.
Tehnic, colectarea s-a făcut prin scraping (majoritar platforma FACTory), completată cu Exolyt și Apify; audio-ul din videoclipuri a fost transcris automat și s-a aplicat BERTopic pentru modelare tematică, urmată de etichetare manuală. Într-un proiect conex, un software dezvoltat împreună cu programatori a fost folosit de Context.ro pentru a identifica și grupe narațiuni similare pe ~60.000 de postări TikTok legate de alegeri, într-un mod comparabil cu „discovery-ul” Spotify. Limitări: calitatea datelor, parametrii de clustering și faptul că etichetele rămân interpretări umane.
În concluzie, raportul conturează o infrastructură informațională care mizează pe volum, repetitivitate și sincronizare mai mult decât pe calitatea argumentelor: teme recurente (locală, actori politici, electoral, economie/energie, securitate) sunt împinse zilnic de conturi cu potențial inautentic (inclusiv 93 specializate în conținut generat cu AI), iar comentariile duplicate indică o amplificare coordonată. Rezultatul este o atmosferă de neîncredere și urgență care poate distorsiona conversația publică și percepția proceselor democratice.
