Rețelele sociale vor fi obligate să devină mai transparente, după implementarea Actului pentru Servicii Digitale (DSA), aprobat la nivelul Uniunii Europene.
Până atunci, am adunat într-un singur loc informațiile de care ai nevoie pentru a înțelege ce știm până acum despre algoritmii Facebook - rețeaua socială cea mai folosită în România, cum funcționează ei și la ce să te aștepți în viitorul apropiat de la platformele de big tech.
Acesta este un articol dintr-o serie amplă despre dezinformare, mecanismele și efectele ei.
La începutul lunii martie, când lumea era sub șocul izbucnirii războiului din Ucraina, pe Facebook și în alte medii online curgeau informații mai mult sau mai puțin adevărate. Conturi cu audiență mare distribuiau postări care susțineau, printre altele, că Statele Unite ar finanța arme biologice în laboratoarele ucrainene -- un fals împins în față de propaganda rusă și de cea chineză.
Pentru credibilitate, postările erau însoțite uneori de citate scoase din context, care susțineau că oficiali de la Casa Albă ar fi confirmat informația. Presa rusă și cea chineză, plus diplomați ai celor două țări, au rostogolit teza în articole sau conferințe de presă. La un moment dat, a apărut chiar și un număr exact al presupuselor laboratoare pentru arme biologice care s-ar afla pe teritoriul Ucrainei: 26.
Aceste postări s-au răspândit nu doar în Rusia și China, ci pe tot internetul, fiind preluate intens inclusiv de utilizatori europeni și americani care, voit sau nu, au amplificat mesajul.
Cu cât auzi un zvon mai des și din mai multe surse, cu atât e mai probabil să-l crezi.
Povestea „armelor biologice” produse de laboratoare finanțate de Statele Unite este una clasică, iar rușii o folosesc încă din 1949, deși experții ONU și jurnaliștii nu au reușit să găsească nicio dovadă care să o susțină. Chiar și așa, în cazul războiului din Ucraina, rețelele de socializare nu au fost pregătite să lupte cu această narațiune menită să dezinformeze: 80% dintre postările scrise pe Facebook pe tema așa-ziselor arme biologice finanțate de americani au continuat să se răspândească, fără să fie blocate de rețeaua de socializare.
Emoție+algoritm=mai mult timp în rețea
Oricine folosește Facebook, TikTok, Instagram, Twitter, sau orice altă rețea de socializare a dat cel puțin o dată de informații greșite. În general, experții apreciază că e bine ca răspândirea acestor postări să fie limitată cât mai repede, pentru a influența cât mai puțini oameni.
În practică însă, zvonurile false tind să fie favorizate de rețelele de socializare. Postările acestea stârnesc furie, revoltă, indignare sau alte stări care ne fac să scriem comentarii, să dăm like-uri și share-uri. Ele ne conving să petrecem mai mult timp pe Facebook și, evident, să vedem mai multe reclame.
La baza piramidei se află algoritmii Facebook, acel set necunoscut de reguli în funcție de care rețeaua decide ce postări să afișeze pe feedul fiecăruia dintre noi și în ce ordine. Uneori există peste 10.000 de parametri luați în calcul atunci când algoritmii prezic dacă unei persoane îi va plăcea sau nu o postare, a declarat directorul departamentului de politici de integritate al Facebook, Jason Hirsch.
Facebook a oferit până acum puține informații despre algoritmii săi.
„Nu știm cum funcționează acest sistem, ce parametri ia în calcul și nu avem nicio pârghie prin care să-l influențăm”
, spune Dorota Głowacka, avocat specializat în protejarea libertății de exprimare la fundația pentru protejarea drepturilor digitale Panoptykon din Polonia.
În plus, „utilizatorul nu are nicio posibilitate, nicio șansă” de a scăpa de acești algoritmi, adaugă Maria Luisa Stasi, care conduce departamentul de legislație și politici pentru piețele digitale al Article 19, o organizație care promovează libertatea de exprimare.
În situații sensibile, cum e și războiul din Ucraina, algoritmii și mecanismele de moderare a conținutului sunt de o importanță crucială pentru protejarea societății de informații false. Cu toate acestea însă, până acum, au existat prea puține reguli pe care rețelele sociale trebuie să le respecte.
Cum funcționează algoritmii Facebook
Algoritmii prin care Facebook decide ce postări să-i afișeze fiecăruia dintre noi și în ce ordine au fost criticați în repetate rânduri în ultimii ani, însă un moment-cheie a fost cel din toamna lui 2021, când o fostă angajată a rețelei de socializare, Frances Haugen, a făcut mai multe dezvăluiri prin care a arătat că Facebook tinde să aleagă postările care generează o interacțiune mare și pun informarea corectă și siguranța utilizatorilor pe plan secund.
Documentele prezentate de ea, care au primit numele Facebook Papers, arată cum deciziile luate de Mark Zuckerberg, directorul executiv al companiei Meta (cea care deține Facebook), au influențat mai multe evenimente majore. Printre acestea, alegerile prezidențiale din 2020 din Statele Unite ale Americii și evoluțiile politice din alte țări ale lumii, printre care India și Vietnam.
Chiar și după publicarea Facebook Papers, detaliile cunoscute despre algoritmii rețelei au rămas puține. În principiu, știm că primele postări pe care le vedem, atunci când accesăm aplicația, sunt și cele pe care algoritmii le evaluează ca fiind cele mai importante pentru noi.
Importanța asta depinde de două criterii: capacitatea de viralizare a postării în sine (măsurată în like-uri, reacții, share-uri și comentarii) și preferințele fiecăruia dintre noi — Facebook știe ce ne-a plăcut de-a lungul timpului și vrea să ne ofere informații care ne-ar trezi interesul.
De exemplu, documentele făcute publice de Haugen arată că americanii interesați de politică primesc în proporție de 90% informațiil legate de politică și probleme sociale. În cazul lor, s-a constatat că o postare din 40 conține informații false.
În timp, algoritmii au tot fost schimbați de Facebook, fără ca rețeaua socială să explice cum și de ce. Practic, ei au fost îmbunătățiți pe baza datelor colectate de Facebook de la fiecare utilizator.
Ca utilizatori, noi nu știm ce contează pentru rețeaua de socializare și nu suntem conștienți de felul în care comportamentele și credințele noastre sunt modelate de algoritmi și de schimbările lor.
De multe ori, deși angajații sesizau probleme etice la felul în care funcționau algoritmii, acestea erau trecute cu vederea de conducerea companiei sau erau amânate. În 2017, de exemplu, cercetătorii care lucrează în cadrul Facebook au demonstrat că algoritmul evaluează diferit reacțiile noastre la postări. De pildă, acordă de cinci ori mai multă greutate reacțiilor exprimate prin emoticoane, comparativ cu cele care au doar like-urile simple. Și asta pentru că a observat un engagement mai mare.
Incidentul e relevant în discuția privind dezinformarea, pentru că cercetătorii Facebook au sesizat tot atunci că reacțiile de tipul „wow” și „haha” tind să apară mai frecvent la postările care conțin informații false. În 2020, după ce Facebook a anunțat că a rezolvat problema, a constatat că utilizatorii au început să primească mai puține postări care dezinformau.
În cazul unui război, aceste informații false pot să schimbe percepția publică și să ne facă să credem propaganda. „Fiecare acțiune militară, diplomatică și politică a rușilor este susținută informațional”, spune Marianna Prysiazhniuk, care lucrează în cadrul proiectului StopFake. „Propaganda este un mod al Kremlinului de a-și desfășura politică externă.” Proiectul StopFake, făcut cu implicarea Școlii de Jurnalism Mohyla din Kiev, a fost lansat în martie 2014, la scurt timp după ce Rusia a invadat Peninsula Crimeea, și este una dintre primele inițiative de verificare a știrilor din estul Europei.
Prysiazhniuk adaugă că rețelele de socializare „au accelerat circulația tuturor fluxurilor informaționale, inclusiv a dezinformării”, încă de dinaintea acestei faze a invaziei ruse în Ucraina. Și, deși unele ipoteze erau de-a dreptul manipulări grosolane, ca de exemplu cea care spunea că Vladimir Putin eliberează Ucraina de naziști, ele s-au răspândit în social media.
Facebook și războiul din Ucraina
Războiul informațional purtat pe rețelele de socializare a început cu mult înainte de 24 februarie, 2022. În tot acest timp, Facebook a susținut că depunde eforturi să țină în frâu dezinformarea și să șteargă postările problematice.
A dat jos boți care promovau informații false. A revizuit constant normele după care stabilește dacă o postare încalcă sau nu regulile comunității. Și, la solicitarea Ucrainei și a altor țări europene, a blocat publicațiile proruse Russia Today și Sputnik. Mai mult, Facebook a dat jos, relativ repede, și un clip deepfake în care părea că președintele ucrainean Volodimir Zelenski le cere ucrainenilor să se predea în fața invadatorilor.
Alte platforme sociale, ca de exemplu TikTok, au făcut mai puțin.
Pe TikTok, o rețea cu origini chinezești, utilizatorii erau expuși la informații false despre războiul din Ucraina la câteva zeci de minute după ce își făceau cont, chiar și în situația în care nu căutau deloc informații despre război.
Recent, și TikTok a afirmat, în raportul său de transparență, că a șters peste 100 de milioane de clipuri în primele trei luni ale acestui an, ceea ce reprezintă 1% din totalul celor postate. Mai mult de trei sferturi dintre clipurile eliminate au fost postate de utilizatori din Rusia și Ucraina.
Telegram, o aplicație folosită intens de la începutul războiului, pare să fi făcut chiar mai puțin. Oficialii platformei nu moderează conținutul care provine din Rusia, fapt care a permis mai multor informații false să se răspândească și să ajungă în rețele sociale sau în presă.
Chiar și așa, însă, felul în care Facebook a gestionat dezinformarea pe perioada războiului lasă de dorit. Rețeaua socială a eșuat în a identifica multe dintre postările care conțineau falsuri. De-asta s-au răspândit atât de puternic informațiile false potrivit cărora americanii finanțează arme biologice, sau cele conform cărora trupele rusești trag într-un convoi american care aduce arme în Ucraina. Uneori, imaginile postate ca fiind filmări reale, din teren, erau de fapt clipuri din jocuri video. Ele au ajuns să fie luate de bune și difuzate de televiziuni, inclusiv din România. Le-a difuzat Antena 3, pe 26 februarie, la emisiunea „Sinteza Zilei” cu Mihai Gâdea.
Cum moderează Facebook conținutul
Pentru situațiile punctuale, în care se pune problema ca o postare să fie interzisă sau un cont blocat, Facebook se bazează pe moderatori. Aceștia lucrează însă într-un ritm alert. Au mai puțin de 90 de secunde la dispoziție pentru a decide dacă o imagine încalcă sau nu regulile trasate de companie. Studiile interne făcute de Facebook au arătat că deciziile moderatorilor sunt subiective și că, în unele situații, ele sunt greșite în proporție de 90%. Iar în timpul războiului din Ucraina, rețeaua socială a fost acuzată de faptul că a schimbat constant regulile pentru moderarea conținutului, în funcție de interesele americane.
În plus, eforturile depuse de Facebook pentru moderarea conținutului în alte limbi decât engleză sunt limitate. Potrivit unui document din 2020 publicat în cadrul Facebook Papers, marea majoritate a acțiunilor de combatere a dezinformării sunt îndreptate spre Statele Unite ale Americii (84%), restului lumii revenindu-i doar 16%. Sunt probleme mari în moderarea conținutului inclusiv în spaniolă, o limbă vorbită de peste 500 de milioane de persoane. Pentru rusă, ucraineană sau română, se face mult mai puțin — utilizatorii semnalează postări cu informații false, dar raportările lor nu duc nicăieri. Abia după începerea războiului, în avalanșa informațională, Facebook a încercat să recruteze vorbitori de rusă și ucraineană pentru a-și mări numărul de moderatori.
Recent, platforma Factual.ro, care se ocupă de ceva timp de verificarea declarațiilor politice, a devenit partener Facebook pentru România.
Și la nivel european se discută strategii pentru a forța Facebook să fie mai transparent și să facă mai mult pentru a combate informațiile false. Uniunea Europeană poate determina marile platforme să fie mai responsabile, cu condiția ca oficialii care ajung la Bruxelles să înțeleagă importanța acestor lucruri.
Reguli mai stricte pentru rețelele sociale
Dezinformarea ocupă o zonă gri. De obicei, conținutul care dezinformează nu e ilegal, dar poate fi dăunător pentru societate, spune juristul Bogdan Manolea, director executiv la Asociația pentru Tehnologie și Internet, o organizație care luptă pentru respectarea drepturilor digitale ale românilor. În plus, „ce este dezinformare pentru unii, poate fi adevăr pentru alții”, adaugă el.
Crearea unei legislații care să ofere un răspuns nu doar just, ci și proporțional cu amenințările pe care le percepem într-un caz de dezinformare, ar trebui să fie una dintre prioritățile Uniunii Europene, spun reprezentanții ONG-urilor.
Pe 5 iulie, Parlamentul European a dat votul final pe un document în acest sens: Actul pentru Servicii Digitale (Digital Services Act sau DSA). Acesta vine cu un set de reguli pentru rețelele sociale și pentru motoarele de căutare și le forțează să fie mai transparente, dar și să prevină, printre altele, cazurile de răspândire a informațiilor false. În cazul în care giganții din tech nu se conformează, pot ajunge să plătească amenzi de miliarde de euro.
„Documentul nu e perfect, dar e un mare pas înainte”, spune Głowacka de la Fundația Panoptykon.
Deși ultima versiune a Actului pentru Servicii Digitale nu a fost încă făcut publică, știm câteva detalii. Documentul, care mai trebuie să apară în Jurnalul Oficial al Uniunii Europene înainte de a fi implementat, ar urma să forțeze rețelele sociale să modereze mai bine conținutul și să explice mai în amănunt cum funcționează algoritmii care recomandă postările văzute de utilizatori. Mai mult, rețelele sociale și motoarele de căutare vor fi obligate să facă analize de risc periodice pe tema dezinformării.
În plus, reclamele nu vor mai putea fi targetate în funcție de informațiile sensibile pe care rețeaua le știe despre noi, ca de exemplu convingerile religioase sau politice. Prin urmare, fanii unui partid politic nu vor mai vedea reclame gândite special pentru ei, ceea ce poate ajuta în lupta împotriva dezinformării.
„Dezinformarea e periculoasă pentru că platformele oferă oportunitatea de a trimite minciuna fix către victima cea mai sensibilă pentru minciuna în cauza”
, spune Andreea Belu, director de campanii și comunicare la European Digital Rights (EDRi), o organizației care luptă pentru drepturile digitale.
Actul pentru Servicii Digitale ia un pic din puterea rețelelor sociale și o dă utilizatorilor. Potrivit reglementărilor acestuia, dacă raportăm o postare problematică, și vedem că platforma nu o dă jos, putem contesta decizia atât la nivel intern, cât și extern, la instituții numite Coordonatori de servicii digitale. „Atât platforma vizată de reclamație, cât și utilizatorul trebuie să se prezinte la o discuție”, spune Manolea. „Dacă utilizatorul are câștig de cauză, platforma trebuie să achite costurile procedurale.”
Ce lipsește din DSA
Și totuși, Actul pentru Servicii Digitale putea fi un document mai curajos, arată ApTI, EDRi, Panoptykon, Article 19 și alte organizații care promovează drepturile digitale.
Una dintre propunerile lor: fiecare utilizator să poată alege dacă vrea ca feedul său să fie generat de Facebook sau de altcineva. Practic, am putea renunța la algoritmii opaci ai rețelei de socializare, pentru a-i înlocui cu algoritmi transparenți creați de ONG-uri sau de organizații media, care pot inclusiv să modereze conținutul pentru a reduce dezinformarea.
Prevederea aceasta a fost introdusă de mai multe ori în Actul pentru Servicii Digitale de către Partidul Piraților, care face parte din Grupul Verzilor al Parlamentului European. De fiecare dată însă, ideea a picat la votul în plen.
„Probabil au crezut că prevederea amenință modelul de business al marilor companii din tech”, spune Patrick Breyer, parlamentar european în Partidul Piraților Germania. „Sistemele (actuale, n. red.) de recomandare a postărilor sunt un mare generator de profit”, adaugă el.
Rețelele sociale nu au niciun interes să permită și altora să administreze postările, spune și Stasi de la Article 19: „E ograda lor, și nu văd nicio rațiune de business să se deschidă și să-i lase și pe alții să-și construiască servicii și produse pe platforma lor.”
La începutul anului 2022, o statistică de specialitate arată că peste 16 milioane de români sunt utilizatori de internet, iar dintre ei, 13,3 milioane folosesc conturi de social media. Aproape 10 milioane au conturi pe Facebook. Același studiu arată că publicitatea pe Facebook ajungea, la începutul anului, la peste jumătate din populația României.
DEZinfo este un proiect editorial finanțat în parte printr-un grant al Departamentului de Stat al S.U.A. Opiniile, constatările şi concluziile prezentate în această lucrare sunt aleautorului/autorilor şi nu le reflectă neapărat pe cele ale Departamentului de Stat al S.U.A.