Ştefan Tecuceanu a explicat la „Apel matinal” de la Radio România Actualități cum funcționează algoritmul TikTok pe care Călin Georgescu l-ar fi folosit în favoarea lui, ajungând astfel învingător în primul tur al alegerilor prezidențiale.
Expertul în domeniul IT al inteligenţei artificiale şi al algoritmilor Ştefan Tecuceanu a explicat marți, 26 noiembrie, la „Apel matinal” de la Radio România Actualități, cum funcționează algoritmul TikTok, în urma rezultatelor neașteptate ale primului tur de scrutin al alegerilor prezidențiale.
Considerat de unii dintre români suveranist și extremist, prieten al Rusiei, independentul Călin Georgescu a câștigat în mod surprinzător primul tur de scrutin prezidențial, cu aproape 23% dintre opțiunile de vot, după ce s-a promovat pe aplicația TikTok.
Cotat inițial cu șanse minime, la coada clasamentului, Călin Georgescu nu a fost luat în seamă de ceilalți candidați și a rămas neatacat în aproape toate dezbaterile electorale. Președintele USR, Elena Lasconi, îl va înfrunta în cel de-al doilea tur al alegerilor prezidențiale.
Cum funcționează algoritmul TikTok
Ştefan Tecuceanu a explicat la „Apel matinal” de la Radio România Actualități cum funcționează algoritmul TikTok pe care Călin Georgescu l-ar fi folosit în favoarea lui, ajungând astfel învingător în primul tur al alegerilor prezidențiale.
„Algoritmii de tip TikTok recompensează până la urmă conţinuturile care primesc foarte multe interacţiuni. Asta înseamnă aprecieri, comentarii, distribuiri, conţinuturi care sunt vizionate complet sau repetat de mai multe ori, foarte important. Şi, bineînţeles, conţinuturi care generează rapid reacţii în primele minute. Cam pe aceste trei, să spun aşa, trei baze se construiesc aceşti algoritmi de TikTok. Boţii pot oricând să fac aprecieri aşa cum i-am programat eu, astfel dând videoclipul iluzia unei popularităţi…
Aprecierea e prima etapă ca să faci să-l tentezi, să tentezi algoritmul de TikTok, apoi vin comentariile, bineînţeles comentariile au foarte mare importanţă şi calitatea comentariilor. Aici intervin boţi, care poate se folosesc şi de arhitecturi în spate, adică de interfeţe către o arhitectură de GPT, adică dacă ne gândim acum la Chat GPT, am văzut ce frumoase comentarii şi răspunsuri ne dă la întrebări. Deci, prin asta automat devin mult mai inteligente.
Bineînţeles, distribuit de videoclipuri, dar de obicei în direcţia asta un bot nu prea face prea mult că ajung celelalte… Adică prin aprecieri, prin comentarii şi prin vizionarea videoclipurilor. Foarte importantă este vizionarea videoclipurilor pentru a creşte, bineînţeles, durata de vizionare şi a convinge algoritmii că materialul este chiar captivant.
Se poate face o promovare cu sume de bani, bineînţeles, ar fi o promovare oficială, dar se poate face bineînţeles şi o promovare neoficială, care poate dă un rezultat mult mai bun. Pentru asta, ok, cum s-ar putea crea asemenea propagandă? Deci, în primul şi în primul rând mi-ar trebui câteva conturi reale şi pe lângă pentru fiecare cont real mi-ar trebui câteva sute de boţi, care să fie legate de aceste conturi reale.
Şi aceşti boţi ce o să facă? O să-mi facă aprecieri, o să-mi facă comentarii, o să-mi genereze bineînţeles şi vizionări, iar prin această tehnică eu cumva am fentat algoritmul TikTok, care crede acum că acest conţinut este foarte captivant şi a trebuit să-l dea din sfera mai mică a acelei bule, în care eu mi-am creat contul şi i-am dat drumul, să încerce din ce în ce să mărească această sferă, pentru că la început, în momentul când am publicat ceva, această publicare merge doar la o anumită sferă micuţă şi ea se tot măreşte, se tot măreşte cu cât vede că e o interacţiune mult mai puternică.
Sunt vizionări, sunt distribuiri, sunt comentarii, este totul activ, se trăieşte cu adevărat. Asta înseamnă, bineînţeles, că am nevoie şi de un conţinut care să fie manipulativ. Şi dacă ne gândim, există până la urmă doar şapte tehnici de manipulare, iar una dintre tehnicile de manipulare este de exemplu Social proof, în care dacă eu văd că un videoclip are 10.000 de vizualizări, bineînţeles că m-ar încânta. Mă uit mai degrabă la un videoclip de 10.000 de vizualizări decât la alt videoclip, care nu are aceste vizualizări.”, a explicat expertul.
De asemenea, el a explicat că emoțiile extreme cresc numărul de interacțiuni pe TikTok. În plus, calitatea conținutului și a poților pot propaga mult mai rapid videoclipurile, ducând la o creștere exponențială.
„Eu, prin aceşti roboţei, pe mine mă ajut să cresc la un moment dat, dar dacă creezi, mai multe conturi, să zic aşa false, şi fiecare are mai mulţi roboţei, se pot răspândi ca o ciupercă şi la un moment dat se răspândesc exponenţial, folosindu-ne, bineînţeles, de aceşti algoritmi ai TikTok pe care îi manipulăm, dacă creăm aşa ceva (…)
Se pot cumpăra momentan aceşti troli, se pot cumpăra programe care pot instala sau chiar se pot lua direct de pe dark web sau dark net, dacă intrăm acolo. Deci momentan ne aflăm într-o eră digitală, după părerea mea, care nu ne protejează pe noi ca utilizatori”, a adăugat el.
Măsuri împotriva manipulării
Ştefan Tecuceanu a mai spus că deși poate fi făcut un „scut de protecție” împotriva manipulării în social media „nu se dorește” o investiție în acest sens. El a explicat ce măsuri ar putea fi luate.
„Aşa cum există un antivirus să ai şi un anti-manipulare, un sistem care îţi zice: această ştire este manipulativă, acesta este un fake news. Şi acuma, dacă tot am zis de fake news, mă gândesc că poate ar fi interesant să ştiţi cum ne putem proteja, că am explicat până acuma cum se poate crea o asemenea propagandă, deci prin conturi, cum am zis, fake, şi cu aceste boţuri, care fiecare cont să aibă mai multe, sute sau dacă nu mii de boţuri, care îl promovează, dar bineînţeles avem şi o tactică de a ne proteja….
Una dintre dintre metode ar fi Legea lui Benford – descrie probabilitatea în cifre ca un număr să aibă o anumită valoare. (…) Această redistribuire sau distribuire a probabilităţilor îmi poate arăta mie dacă sunt conturi fake sau sunt conturi reale, sau ce se întâmplă aici. Combinând această lege a lui Benford cu inteligenţa artificială, deja avem un sistem care ne poate avertiza că aici este vorba de manipulări”, a explicat expertul.