Foto credit: CNAS
Da bi se razumele savremene i nove pretnje dezinformacijama, važno je sagledati kako ruska država i vojna doktrina definišu informaciono ratovanje i ulogu veštačke inteligencije (AI) u tom okviru, piše u u izveštaju Britanskog kraljevskog instituta ujedinjenih službi (RUSI) pod nazivom “Novi Uvidi: Rusija, Veštačka Inteligencija i Budućnost Rata Dezinformacija” .
Za Rusiju je informaciono ratovanje (u doktrini poznato kao “informaciona konfrontacija”) strateški važno kao i konvencionalno ili nuklearno oružje, čak i u mirnodopskim uslovima, navodi izveštaj, napominjući da se informaciona sfera smatra ključnom za nacionalnu bezbednost i međunarodni uticaj.
Rusija često ne priznaje sajber napade na Zapad, ali ih ni direktno ne poriče – koristi, dakle, “moguće poricanje” kao stratešku prednost.
Njena strategija kombinuje prikupljanje obaveštajnih podataka (špijunažom ili sajber upadima) sa psihološkim uticajem na pojedince i mase. Cilj je da se prikupljaju podaci i istovremeno oblikuje politički diskurs i odluke – u zemlji i inostranstvu.
Dezinformacione kampanje nastoje da oslabe protivnike time što produbljuju unutrašnje podele, narušavaju poverenje u demokratske institucije i podrivaju saveze poput NATO-a i EU što otežava koordinisane odgovore na ruske akcije.
Zapadni mediji, piše u izveštaju, ponekad preuveličavaju ruske sajber sposobnosti, što dodatno jača imidž Rusije kao moćne sajber sile – čak i kada je stvarni efekat ograničen.
Ruski dezinformacioni ekosistem je raznolik – uključuje državne institucije, državne medije, posredničke organizacije, ideološki motivisane pojedince i blogere koji rade iz komercijalnih interesa. Neki deluju pod formalnom kontrolom, dok drugi deluju samostalno, ali svi oni u skladu sa ciljevima Kremlja. Ul
Ovaj decentralizovani pristup omogućava fleksibilnu komunikaciju prilagođenu različitim publikama i daje državi mogućnost poricanja umešanosti.
Ruski akteri u informacionom ratovanju
Na državnom nivou, ruske obaveštajne agencije, posebno vojna obaveštajna služba GRU, igraju ključnu ulogu u sajber operacijama koje uključuju uticaj na strane ciljeve. Dve glavne jedinice GRU-a, 26165 i 74455 (poznate kao APT28 – Fancy Bear i APT29 – Cozy Bear), povezane su sa sajber napadima, mešanjem u izbore i širenjem dezinformacija putem društvenih mreža.
Iako ovi napadi uključuju tehničke operacije (upade, krađu podataka), GRU retko istupa javno – ulogu „glasnika“ često preuzimaju haktivističke grupe, koje prepravljaju i distribuiraju ukradeni sadržaj kako bi prikrile poreklo. Koordinacija se prepoznaje po tajmingu curenja informacija i zajedničkoj tehničkoj infrastrukturi, što otežava direktno povezivanje sa ruskom državom i omogućava širenje uticaja uz smanjen rizik.
Pored toga, brojni medijski posrednici (npr. Strategic Culture Foundation, News Front, SouthFront) šire ruske narative širom sveta, bez direktne kontrole Kremlja, čime legitimizuju i pojačavaju ruske poruke u inostranstvu.
Veštačka inteligencija (AI) kao pokretač dezinformacija
Rusija AI vidi kao strateški važnu oblast. Nacionalna strategija iz 2019. postavila je cilj da zemlja postane globalni lider u AI do 2030. godine. Zvaničnici AI posmatraju i kao priliku i kao pretnju – posebno zbog straha da bi zapadni AI alati mogli manipulisati ruskim javnim mnjenjem i izazvati ideološku destabilizaciju.
Zato je Rusija počela razvijati sopstveni suvereni AI sistem, predvođen Nacionalnim centrom za razvoj veštačke inteligencije. Glavne uloge imaju državne kompanije poput Sberbanke (platforma GigaChat, pandan ChatGPT-u) i Rosteca (fokus na vojnu primenu), dok Yandex ima sporednu ulogu zbog složenog odnosa sa vlastima.
Generativna AI se već koristi u ruskim dezinformacionim operacijama – za pravljenje lažnih vesti, postova, slika i deepfake sadržaja. Kampanje poput “DoppelGänger” koriste AI za kreiranje tekstova koji imitiraju zapadne medije, s ciljem da se stvori konfuzija i izgubi poverenje u institucije. AI botovi i automatizovani nalozi pojačavaju dezinformacije i glume „spontanost“ javnog mnjenja (tzv. astroturfing), a ponekad i simuliraju lažne rasprave među botovima da zavaraju posmatrače.
Ruski akteri eksperimentišu i sa „gajenjem“ velikih jezičkih modela (LLM) – pokušajima da ubace propagandu u podatke za treniranje ovih sistema, kako bi se njihovi odgovori manipulisali na suptilan način. Ovo predstavlja prelazak sa direktnog uticaja na publiku, na oblikovanje alata koje publika koristi.
Iako je ovo još u razvoju, generativna AI se već posmatra kao sredstvo koje povećava moć dezinformacija, olakšava njihovo širenje i briše granice između istine i laži.
Diskurs o AI u ruskim mrežama uticaja
Analize podataka (preko ExTrac AI platforme) pokazuju sve veće interesovanje ruskih aktera za AI, posebno u kontekstu dezinformacija i strateške komunikacije. Često se govori o vojnim primenama AI, kao i o njenoj ulozi u sajber operacijama i manipulaciji informacijama.
Na Telegram kanalima se AI često prikazuje kao ključ za obuku nove generacije sajber operativaca. Pojedini postovi izražavaju ponos zbog korišćenja AI u sofisticiranim informacijskim operacijama, dok istovremeno ismevaju zapadne optužbe o ruskom mešanju – npr. šale da bi Putin lično morao da govori nemački kako bi učestvovao u nemačkoj kampanji, aludirajući na njegove jezičke veštine.
Optužbe Zapada se rutinski odbacuju kao preuveličane ili izmišljene, prikazujući ih kao pokušaje prebacivanja odgovornosti za unutrašnje političke probleme u tim zemljama.
Takva podrugljiva odbacivanja imaju za cilj da potkopaju kredibilitet zapadnih izveštaja, dok istovremeno učvršćuju unutrašnji narativ da ruske operacije uticaja uspešno destabilizuju zapadne vlade.
Ipak, pored hvalisanja i nipodaštavanja, u posmatranim diskusijama otkriva se i određeni nivo dubljeg nepoverenja i paranoje u vezi sa tehnologijama veštačke inteligencije.
Na primer, u postovima se izražava zabrinutost zbog sposobnosti AI da brzo i uverljivo reprodukuje ljudske osobine, što se vidi kao distopijska pretnja koja bi mogla postepeno da zameni ljude u potpunosti.
Drugi izražen strah odnosi se na potencijalno stvaranje veštačke superinteligencije (ASI), gde akteri opisuju scenarije u kojima rutinske ljudske aktivnosti ubrzano preuzimaju AI agenti, uz predviđanja da će AI sistemi dostići nivo ljudske inteligencije, što bi na kraju moglo dovesti do društva potpuno pod kontrolom AI.
Druge zabrinutosti su neposrednije i pragmatičnije. Na primer, imenovanje bivšeg direktora američke Nacionalne bezbednosne agencije (NSA), Pola Nakasonea, u upravni odbor kompanije OpenAI, široko je tumačeno kao dokaz tekuće militarizacije AI. Akteri su sugerisali da bi sve interakcije sa OpenAI sistemima sada potencijalno mogle biti pod nadzorom i iskorišćene od strane američke vojne obaveštajne zajednice.
Ovi narativi pokazuju kako poznavanje zapadnih AI dešavanja ide ruku pod ruku sa pojačanom anksioznošću zbog gubitka kontrole nad tim tehnologijama.
U tom kontekstu, Ukrajina se često prikazuje kao eksperimentalno polje za psihološke operacije koje omogućava AI, masovni nadzor i propagandu od strane zapadnih obaveštajnih službi.
Štaviše, specifični slučajevi, poput kampanje DoppelGänger, predstavljeni su na dvosmislen način – neki kanali tvrde da takve kampanje zapravo predstavljaju „false flag“ operacije, organizovane od strane zapadnih obaveštajnih službi u saradnji sa ruskim opozicionim figurama, čime se dodatno učvršćuju narativi o žrtvi i spoljnoj agresiji.
Zbog ovakvih zabrinutosti, akteri povezani sa Rusijom otvoreno pozivaju na povećanje informacione pismenosti među ruskom javnošću. Kanali redovno podsećaju svoje pratioce da pažljivo proveravaju informacije, budu skeptični prema nezvaničnim izvorima i oslanjaju se prvenstveno na medije koje odobrava država.
Okvir i funkcija AI alata
Telegram kanali AI prikazuju ne samo kao tehnološku inovaciju, već i kao građansku dužnost, ohrabrujući vešte pojedince da doprinesu nacionalnim naporima.
Pozivi na regrutaciju često su usmereni ka korisnicima sa poznavanjem AI tehnologija, kako bi svojim veštinama doprineli ciljevima grupa u skladu sa ruskim nacionalnim interesima.
Na primer, jedan Telegram kanal aktivno traži saradnike sa iskustvom u generativnim AI alatima, objavljujući sledeće:
„Da li si umetnik neuronskih mreža? [Naziv kanala redigovan] te treba! Naš tim se širi i broj zadataka raste svakog meseca. Tražimo umetnike koji već rade sa Stable Diffusion (AUTOMATIC1111 + ControlNet) i Midjourney… koji razumeju principe industrijskog inženjeringa i mogu da kontrolišu proces generisanja, a ne da se oslanjaju na sreću.“
Slično tome, druga poruka za regrutaciju sa istog kanala navodi širi spektar poželjnih saradnika, uključujući „neuroevangeliste i stručnjake za generisanje teksta“, naglašavajući da aktivnosti projekta prevazilaze samo grafički sadržaj i uključuju sofisticiranu manipulaciju i kreiranje teksta.
Kanal opisuje svoj projekat kao fundamentalno zasnovan na ljudskom kapitalu – uključujući talentovane analitičare, informatore i entuzijaste za digitalnu obaveštajnu analizu – ističući značaj zajedničkog razmišljanja (brainstorminga) i raznovrsne ekspertize koja obuhvata geoprostornu i obaveštajnu analizu iz otvorenih izvora (OSINT).
Još jedna centralna tema u posmatranim diskusijama jeste važnost informacionog rata kao sastavnog dela savremenih sukoba i nacionalne bezbednosti. Na primer, promotivni materijali za okrugli sto Foruma „Armija-2024“ naglasili su značaj razumevanja kako napredne digitalne tehnologije, uključujući veštačku inteligenciju, mogu oblikovati percepciju društva u kontekstu ruske „Specijalne vojne operacije“ u Ukrajini.
Drugi Telegram kanali prikazuju AI alate kao ključne resurse za zaštitu ruskog digitalnog prostora od spoljašnjih pretnji. Jedan od kanala opisuje sebe kao zajednicu „visokokvalifikovanih stručnjaka iz oblasti sajber bezbednosti, informacionih tehnologija i društvenih istraživanja“, posvećenu eksplicitno „neutralisanju pretnji, dezinformacija i propagande“. Ove diskusije predstavljaju veštačku inteligenciju kao oruđe ne samo za napad, već i za odbranu – korišćeno za identifikaciju, suzbijanje i neutralisanje stranih operacija uticaja koje navodno ciljaju rusko društvo.
Percepcije ograničenja i prepreka
Uprkos izraženom entuzijazmu u vezi sa strateškom integracijom AI u informacioni rat, posmatrane onlajn zajednice takođe su izrazile značajnu kritiku i frustraciju u vezi sa ograničenjima domaćih ruskih AI platformi, prvenstveno Sberbankovog GigaChat-a i YandexGPT-a.
Česta zamerka jeste da ovi modeli pokazuju liberalne ili „nepatriotske“ pristrasnosti. Na primer, Sber GigaChat je optužen da pokazuje pozitivne stavove prema ličnostima poput Lenjina i Trockog; jedan post se žalio da platforma „ne može da osudi njihovu izdaju Rusije i Crveni teror“.
Još zabrinjavajuće za ove aktere jeste način na koji se platforme odnose prema politički osetljivim temama, naročito u vezi sa ruskim teritorijalnim zahtevima. YandexGPT i Sber GigaChat suočili su se s optužbama da nisu jasno potvrdili da su Krim i nedavno anektirani „novi regioni“ deo Rusije. Objave su delile anegdote u kojima AI ili izbegava ovakva pitanja ili predlaže promenu teme, što korisnici tumače kao izbegavanje i subverziju.
Jedan korisnik je sarkastično primetio: „Sber GigaChat počinje da se smrzava čak i kada se postavi pitanje poput ‘koji primorski regioni su najpoželjniji za preseljenje Rusa’ (jer je Krim na listi).”
Ova nevoljnost da se reprodukuju zvanični državni stavovi i narativi dovela je do optužbi da platforme poput YandexGPT-a ili namerno podrivaju Rusiju ili su podložne stranim interesima – što korisnici smatraju pitanjem koje bi trebalo da bude razmatrano na nivou Saveta bezbednosti Rusije.
Slične optužbe upućene su i drugim domaćim platformama. Na primer, chatbot kompanije Megafon kritikovan je zbog klasifikovanja Krima i Donjecke i Luganske Narodne Republike kao ukrajinskih teritorija – navodno zbog toga što koristi strane AI tehnologije, poput Midjourney-a i GPT modela.
Korisnici su se žalili, takođe, da ruski servisi daju slabije odgovore ili odbijaju da odgovore na neutralna i faktografska pitanja koja zapadni alati bez problema obrađuju.
Jedan post je to sažeo ovako: „Uzmimo YandexGPT… ovaj AI prototip je strašan kukavica i ne odgovara čak ni na sasvim obična pitanja… S jedne strane, to ozbiljno podriva poverenje u Yandex i njegove proizvode. S druge strane, daje osnov ne samo da se Yandex-ove usluge proglase nedovršenima, već i da se njegovi trenutni menadžeri proglase – stranim agentima.“
Još jedan slučaj o kojem se diskutovalo na posmatranim kanalima tiče tvrdnji da je francuska Komanda za sajber odbranu treniralo ukrajinske i poljske sajber jedinice posebno za ciljanje Vagnerovih operacija u Maliju i drugde. Ti kanali su izveštavali da su ove operacije deo šire zapadne strategije oružavanja AI tehnologija protiv Rusije i njenih interesa.
Dalje komplikovanje Vagnerovog odnosa sa AI dešava se u kontroverzama gde je AI-generisani sadržaj navodno zloupotrebljen za manipulaciju ili pogrešno predstavljanje ruskih unutrašnjih stavova. U jednom široko diskutovanom slučaju, kontroverzna izjava koja je navodno poticala od zamenika Državne Dume Aleksandra Borodaja, odbačena je kao AI-generisani lažni sadržaj nakon što je opisala dobrovoljce na prvoj liniji kao „rezervne ljude“.
Pored operativnog fokusa, Vagnerov diskurs o AI često jača metanarativ o elitnoj kompetentnosti. Kanali često upoređuju disciplinovani, na obaveštajnim podacima zasnovani pristup Vagnera informacionom ratu sa onim što opisuju kao amaterske ili ideološki zbunjene napore drugih ruskih aktera.
Hakativističke grupe
Pro-ruski hakativistički kolektivi – od kojih mnogi deluju pod direktivom ili u strateškim savezom sa državnim obaveštajnim agencijama poput GRU, spoljne obaveštajne službe (SVR) i Federalne službe bezbednosti (FSB) – predstavljaju važan deo šire ruske mreže za uticaj i sajber operacije. Istaknute grupe uključuju Zarya, Cyber Army of Russia (takođe poznatu pod imenima poput People’s Cyber Army ili Cyber Army of Russia Reborn), Solntsepek, Beregini, RaHDit i NoName057(16), a povezane su sa APT jedinicama poput APT44 (GRU Jedinica 74455).
Ove grupe često ciljaju organizacije za borbu protiv dezinformacija, nezavisne medije i stratešku infrastrukturu, posebno u Ukrajini i drugim delovima Evrope, prikazujući svoje akcije kao odmazdu za zapadnu „informacionu agresiju“.
Na primer, u maju 2024, Cyber Army of Russia je napala sajt Ukrajinskog centra za borbu protiv dezinformacija, opravdavajući napad kao odmazdu za, kako su naveli, ukrajinsku dezinformaciju o incidentima u Belgorodu: „Moramo učiniti sve da ih naučimo lekciju zbog trpanja informativnog prostora ciničnim lažima o jučerašnjem granatiranju stambene zgrade u Belgorodu.“
Pored izvođenja napada, ove grupe iskorišćavaju simboličku vrednost medijske pažnje. Na primer, DDoS kampanje koje dobiju značajnu zapadnu medijsku pokrivenost, kao što je privremeni prekid rada zvaničnog sajta predsednika Slovenije, predstavljaju se kao velike pobede, bez obzira na tehnički ili strateški značaj. Screenshoti pogođenih sajtova šire se kao digitalni trofeji sa ciljem podizanja morala među njihovim pristalicama i slanja signala uspeha kako interno, tako i protivnicima.
Drugi važan deo načina rada ovih grupa je deljenje znanja, resursa i tehničke ekspertize. Na primer, ističu i promovišu platforme poput HackerGPT, koja je eksplicitno prilagođena za podršku ruski orijentisanim hakerima i koja pruža baze podataka tehnika, alata i strategija za efikasne sajber operacije.
Hakativistička grupa NoName057(16) od svog nastanka početkom 2022, otvoreno diskutuje o AI kao faktoru umnožavanja moći za DDoS napade, kampanje dezinformisanja i sabotažu reputacije.
Grupa pokazuje svest o međunarodnim istraživanjima i izveštajima koji analiziraju njihove operacije uticaja. Aktivno referišu spoljne izveštaje, poput onih koje su objavili Google istraživači koji ističu AI kao glavni izvor onlajn dezinformacija, tretirajući ih kao potvrdu svoje operativne efikasnosti. Ova interakcija sa protivničkim izveštajima i istragama briše granicu između propagande i performansa, stvarajući povratnu spregu u kojoj se zapadna kontrola koristi za jačanje narativa grupe o uticaju i značaju.
Kada su navodni članovi grupe uhapšeni u Španiji sredinom 2024, NoName057(16) je taj incident predstavio kao simptom šire evropske „lov na veštice“, koji vode, kako tvrde, „rusofobične vlasti“. Ovaj narativ jača koheziju grupe i prikazuje njihove aktivnosti kao legitimni otpor neopravdanoj zapadnoj represiji.
Na kraju, NoName057(16) aktivno gradi svoj javni identitet kroz intervjue, sažetke i medijske proizvode na više jezika, predstavljajući se kao posvećen akter u ruskom informacionom ratu. Njihovi Telegram kanali pozivaju na kontinuirane sajber operacije uz pomoć AI, pružaju alate i vodiče korisnicima i neguju osećaj zajednice zasnovan na tehničkoj veštini i ideološkoj posvećenosti.
Generativna veštačka inteligencija (AI), pokazao je ovaj izveštaj, više nije nešto što nas čeka u budućnosti već aktivan deo tekućih ruskih i njima bliskih operacija uticaja.
Analiza pokazuje da generativna AI nije samo alat za unapređenje postojećih tehnika dezinformisanja, već menja način na koji se operacije uticaja razvijaju, legitimišu i sprovode. Vagner, recimo, koristi AI za edukativne materijale i kritikuje nekvalitetan sadržaj, pozivajući na stratešku disciplinu, čime profesionalizuje informativni rat. Hakativističke grupe kao NoName057 vide AI kao faktor umnožavanja moći u decentralizovanim kampanjama koje imaju za cilj preplavljivanje i destabilizaciju zapadne digitalne infrastrukture.
Impikacije za politiku i bezbednost
Izvešztaj sugeriše da je potreban razvoj regulacija AI koje se jasno bave zloupotrebom AI, ne samo u generisanju sadržaja, već i u treniranju modela, pristupu i primeni.
Zbog decentralizovanog i višejezičnog karaktera rusko-povezanih mreža uticaja, važno je pratiti i diskurs aktera uključujući strateško planiranje i formulisanje narativa na različitim platformama, ne samo sadržaj koji proizvode. Potrebna je podrška civilnom društvu i medijima koji su direktno meta ovih operacija, kroz zaštitu od AI-napada i jačanje digitalne pismenosti i otpornosti na sintetički i manipulisani sadržaj.
S obzirom na brzinu razvoja AI, neophodna je veća koordinacija između vlada, platformi, istraživača i novinara, uz deljenje uvida o taktikama i ponašanjima pretnji. To treba da uključuje razmenu uvida o uočenim taktikama i upotrebama AI alata, kao i ponašanja aktera pretnji.
Na kraju, ovaj izveštaj pokazuje da AI preoblikuje, ali ne zamenjuje mehanizme i logiku ruske dezinformacije. AI deluje kao pojačivač, omogućavajući veći domet, brži odgovor i dinamičniju adaptaciju narativa. Ali takođe uvodi nove ranjivosti, kontradikcije i trzavice unutar samih ruskih mreža uticaja. Razumevanje i angažovanje sa ovim unutrašnjim dinamikama biće ključno za informisanje budućih politika i razvoj efektivnih protivmera./The Gepost/

Državne počasti u Beogradu za ratnog zločinca
Na Balkanu se testira sigurnost Evrope, kazao britanski premijer na samitu u okviru Berlinskog procesa
Ukrajina i Švedska potpisale dugoročni sporazum za do 150 borbenih aviona Gripen za Kijev
Evropski parlament u predlogu rezolucije o Srbiji podržao pravo građana na proteste
Poljska uhapsila osam osoba zbog navodne sabotaže povezane sa Rusijom, kaže premijer Tusk
Nema sastanka Trampa i Putina u doglednoj budućnosti – evo zašto