Știri

CINCI PUNCTE PENTRU „FURIE” SI UN PUNCT PENTRU „LIKE”: CUM A DAT NASTERE FORMULA FACEBOOK LA FURIE SI DEZINFORMARE

Scris de Daniel Solheim

Inginerii de la Facebook au acordat o valoare in plus reactiilor cu emoji (emoticoane), incluzand „angry”, fortand un continut mai emotional si mai provocativ in feed-ul de noutati al utilizatorilor.

In urma cu cinci ani, Facebook a oferit utilizatorilor sau cinci modalitati noi de a reactiona la postarile din feed-ul lor, pe langa iconicul „like” : „love”, „haha”, „wow”, „sad” si „angry”.

In culise, Facebook a programat algoritmul care decide ce vad oamenii in feed-ul lor de stiri prin a folosi emoticoanele de reactie ca semnale pentru a forta si mai mult continut emotional si provocativ – incluzant continut care sa aiba potentialul de a-i face furiosi.

Incepand din 2017, algoritmul de clasare al Facebook a tratat reactiile cu emoticoane ca fiind de pana la cinci ori mai valoroase decat „like”, dezvaluie documente interne.

Teoria era simpla: postari care provocau multe reactii cu emoticoane aveau tendinta sa ii tina pe utilizatori mai angajati in discutie, iar tinand utlizatorii angajati era cheia afacerii Facebook.

Propriii cercetatori ai Facebook au fost rapizi in a suspecta o eroare critica. Prin favorizarea unor postari „controversiale” – incluzand pe cele care i faceau furiosi pe utilizatori – se putea „deschide usa, din greseala,pentru mai mult spam/abuz/clickbait-uri” a consemnat o persoana din staff, al carei nume a fost pus sub confidentialitate, intr-un document intern. Un coleg a raspuns: „Este posibil”.

Avertismentul s-a dovedit a fi profetic. Tehnicienii IT ai companiei au confirmat in 2019 ca postarile care au provocat reactii cu emoticoane furioase erau, in mod disproportionat, mai probabile sa contina dezinformare, toxicitate si stiri de proasta calitate.

Asta inseamna ca, pentru o perioada de trei ani, Facebook, in mod sistematic, a amplificat unele din cele mai rele lucruri de pe platforma sa, facandu-le mai proeminente in feed-urile utilizatorilor si raspandidu-le la o audienta mult mai mare.

Puterea promotiei algoritmice a subminat eforturile moderatorilor de continut ai Facebook si al echipelor de integritate, care duceau o batalie imposibila impotriva unui continut toxic si vatamator.

Dezbaterea interna despre emoticonul „angry” si rezultatele in legatura cu efectele sale au aruncat lumina asupra judecatii umane foarte subiective care sta la baza algoritmului din feed-ul de stiri al Facebook – softul bizantin autodidact care decide pentru miliarde de oameni care sunt postarile pe care le vor vedea de fiecare data cand vor deschide aplicatia.

Dezbaterile pe aceasta tema au fost dezvaluite in documente puse la dispozitia Comisiei de Securitati si Schimburi si trimisa Congresului Statelor Unite in forma redactata prin avocatul avertizorului Frances Haugen. Versiunile redactate au fost analizate de un consortiu de organizatii de stiri, printre care si The Washington Post.

„Furia si ura sunt cele mai usoare modalitati pentru a creste pe Facebook” a declarat Haugen in fata Parlamentului britanic luni.

In mai multe cazuri, documentele arata ca angajatii Facebook, din echipele de „integritate” au semnalizat costurile umane ale elementeler specifice din sistemul de clasificare – avertizari pe care cei din functii executive ori nu le-au luat in seama sau, de alte ori, aparent le-au dat la o parte. Angajatii au evaluat si au dezbatut importanta furiei in societate: „Furia este o emotie din miezul naturii umane” a scris un angajat, in timp ce un altul a evidentiat ca postarile care genereaza furie pot fi esentiale pentru miscari de protest impotriva unor regime corupte.

„O intrebare rapida ca sa fiu avocatul diavolului: acordarea unei ponderi de 5 ori mai mare emoticoanelor de reactie in comparatie cu „likes” va duce la Feed-uri de stiri care vor avea un procentaj mai mare de continut controversial fata de continutul agreabil?”

Un algoritm precum cel al Facebook, care se bazeaza pe technici sofisticate si opace de invatare automata pentru a genera predictia gradului de angajament, „poate sa sune misterios si amenintator” a spus Noah Giansiracusa, un profesor de matematica al Universitatii Bentley din Massachusetts si autorul cartii „How algorithms Create and Prevent Fake News” – Cum algoritmii creeaza si previn Fake News-uri. „Dar pana la urma, este doar un numar prevazut – un rezultat. Iar o fiinta umana decide care este acel numar”.

Purtatorul de cuvant al Facebook, Dani Lever, a spus: „Noi continuam sa facem eforturi pentru a intelege care continut creeaza experiente negative, astfel incat sa putem reduce distributia acestuia. Asta include si continutul care are o cantitate disproportionata de reactii de furie, de exemplu”.

Ponderea reactiei de furie este doar una din multele parghii pe care inginerii de la Facebook le manipuleaza pentru a forma fluxul de informatie si conversatii pe cea mai mare platforma de socializare din lume – una care a demonstrat ca influenteaza totul, de la emotiile utilizatorilor pana la campaniile politice si la atrocitati.

Cum iti modeleaza Facebook Feed-ul de stiri

Facebook ia in considerare numerosi factori – unii dintre acestia sunt cotati a avea o importanta mai mare, unii care conteaza mai putin iar unii care conteaza in mod negativ – acestea se insumeaza intr-un scor singular generat de algoritm pentru fiecare postare din feed-ul utilizatorului, de fiecare data cand acesta da un „refresh” la pagina de Facebook. Acel scor este utilizat la randului pentru a sorta postarile, si decide care din ele vor apare la inceput si care vor fi atat de jos incat probabil nu le vei vedea niciodata.

Acest sistem sistem unic de cuprindere intr-un singur scor este folosit pentru a categoriza si sorta o mare parte din interactiunea umana in aproape fiecare tara din lume, in peste 100 de limbi.

Facebook nu publica valorile generate de algoritmul sau pentru diferitele tipuri de anagajament emotional, nemaivorbin de cele peste 10.000 de „semnale” despre care se vorbeste ca softul le poate lua in considerare in predictia formelor de angajament emotional produs de fiecare postare.

Facebook se justifica deseori teama de a un manual de instruciuni oamenilor care au intentii meschine u, pentru a explica de ce isi tine modul de lucru sub acoperire.

Parghiile Facebook-ului se bazeaza pe semnale pe care cei mai multi utilizatori nu le-ar lua in seama, de exemplu lungimea comentariilor generate de o postare sau daca un video este live sau inregistrat, sau daca comentariile sunt in text sau cu avatari din desene animate, arata documentele.

Monitorizeaza chiar si timpul calculului necesar pentru incarcarea fiecari postari si taria semnalului de internet a utilizatorului. In functie de parghia folosita, efectul unei modificari minuscule poate produce efecte asupra retelei, modeland astfel noile surse din feed-ul tau fie ca acestea sunt reputate sau nu, sauca ti-ai vazut mai mult prietenii reali , sau sunt mai multe postari de la grupuri de Facebook care doresc sa li te afiliezi, fie ca ceea ce te-a vazut te face sa fii furios, plictisit sau te inspira.

Manechine de carton ale CEO-ului Facebook, Mark Zuckerberg, in fata Capitoliului, in timp ce acesta era audiat in fata Congresului.

Dincolo de discutia despre emoticonul „furios”, documentele arata ca angajatii Facebook se lupta du intrebari dificile despre politica companiei, producand analize inteligent construite. Cand au descoperit ca algoritmul exacerbeaza vatamarea, au intervenit in favoarea modificarilor despre care ei credeau ca ar aduce un remediu. Dar acele propuneri au fost uneori respinse.

Cand „promovari”, precum cele pentru emoticoane, au intrat in coliziune cu „retrogradari” menite sa limiteze continutul cu potential de vatamare, toata acea matematica complicata a rezultat intr-o problema legata de protectia utilizatorilor.

O postare medie a primit un scor de cateva sute, conform documentelor. Dar in 2019, un inginer IT de la Facebook a descoperit ca nu exista o limita pentru cat de departe putea ajunge punctajul.

Daca algoritmul Facebook a crezut ca o postare este rea, Facebook putea sa ii taie punctajul la jumatate, impingand cele mai multe instante ale postarii in jos pe feed-ul utilizatorului. Dar cateva postari puteau sa ajunga la scoruri de pana la un milion, conform documentelor.

Taind un scor astronomic la jumatate pentru a „retrograda” o astfel de postare, ar lasa postarea cu un scor destul de mare incat aceasta sa ajunga tot la varful „feed”-ului utilizatorului.

„Un gand inspaimantator: retrogradarile civice nu functioneaza” a notat un angajat al Facebook.

Cultura experimentarii a fost foarte impamantenita la Facebook, cand inginerii au tras de parghii si au masurat rezultatele. Un experiment din 2012 care a fost publicat in 2014 a incercat sa manipuleze valenta emotionala a postarilor prezentate in feed-ul utilizatorilor astfel ca acestea sa fie mai pozitive sau mai negative, si apoi au observat daca propriile lor postari s-au schimbat pentru a se adapta la acele stari de spirit, ridicand o serie de ingrijorari de natura etica, a relatat The Post la acea vreme. Un alt experiment, raportat de Haugen in fata Congresului america luna aceasta, a implicat inchiderea masurii de protectie pentru o serie de utilizatori pentru a verifica daca acele masuri functioneaza sau nu.

Un alt set de experimente, neraportate pana acum, au implicat promovare unor persoane mai frecvent in feed-ul unora din prietenii lor alesi aleatoriu – iar apoi, odata ce experimentul a fost finalizat, au examinat daca perechea de prieteni au continuat comunicarea, conform documentelor. Un cercetator a emis o ipoteza ca, cu alte cuvinte, Facebook ar putea face ca relatiile sa devina mai apropiate.

In 2017, Facebook a incercat sa reverseze un declin ingrijorator in ce priveste numarul postarilor si a dialogului dintre ei pe site, iar reactiile cu emoticoane le-au oferit inca cinci parghii noi. Fiecare reactie emotionala avea valoarea a cinci „likes” la acea data. Logica a fost ca un emoticon cu reactie semnala ca acea postare avuse o impresie emotionala mai mare decta un simplu clic pe butonul „like”. Dar Facebook s-a ferit de public in ce priveste importanta atribuita acelor reactii: Compania a spus in dialog cu Mashables in 2017 ca evalua emoticoanele doar „cu putin mai mult decat un „like”.

Miscarea a fost consistenta cu un model, evidentiat in documente, in care Facebook pune o pondere mare pe noi caracteristici pe care doreste ca sa incurajeze utilizatorii sa le foloseasca. La antrenarea algoritmului pentru optimizarea acelor caracteristici, inginerii de la Facebook s-au ingrijit ca acestea sa fie bine vazute si utilizate. Nu numai atat, dar oricine posta pe Facebook cu speranta de a avea o audienta larga – incluzand editori si actori politici – urma sa inteleaga ca anumite tipuri de postari „lucrau” mai bine decat altele.

La un moment dat, CEO Mark Zuckerberg, chiar a incurajat utilizatorii in public sa raspunda la comentariile altor utilizatori cu emoticonul „angry” pentru a semnala ca nu le place ceva, in ciuda faptului ca exact asta ar fi facut ca Facebook sa arate un continut similar mai des.

Mark Zuckerberg recunoaste ca emoticoanele pot fi folosite pentru a indica „dislike” adica neplacerea.

Raspunsuri la o postare, care semnalau un efort mai mare decat doar o apasare a unui buton de reactie, aveau o pondere si mai mare, pana la de 30 de ori mai mult decat un „like”. Facebook a descoperit ca interactiunea dintre prietenii utilizatorului pe site a crea un fel de ciclu virtual care impingea utilizatorii sa posteze si mai mult.

The Wall Street Journal a relatat luna trecuta cum accentul pus de Facebook pe comentarii, raspunsuri la comentarii si raspunsuri la re-partajari – o parte din metrica pe care a denumit-o „interactiuni sociale semnificative”, – a stimulat postarile politice divizive. (Acel articol a mentionat, de asemenea, ponderea timpurie atribuita emoticonului „angry” dr nu si dezbaterile care au urmat in urma impactului sau.)

Scopul acelei metrici este de „a imbunatati experienta oamenilor prin prioritizarea postarilor care inspira la interactiune, in particular, conversatii, intre familie si prieteni” a spus Lever.

Prima retrogradare a pnderii emoticonului „angry” a venit in 2018, cant Facebook a redus la de patru ori valoarea unui „like”, pastrand aceeasi pondere pentru toate celelalte emoticoane.

Dar era aparent ca nu toate reactiile emotionale erau la fel. Furia a fost cea mai putin folosita din cele sase emoticoane, la 429 de milioane de clickuri pe saptamana, comparat cu 63 de miliarde de „likes” si 11 miliarde de „love”, conform unui document din 2020. IT-istii Facebook au descoperit ca reactiile emotionale „angry” erau „mult mai frecvente” la postari problematice: „stiri civice de proasta calitate, dezinformare civica, toxicitate civica, dezinformare pe teme de sanatate si continut anti-vaccin” conform unui document din 2019. Cercetarea din acel an a aratat ca emoticonul „angry” devenise inarmat” de catre figuri politice.

In aprilie 2019, Facebook a pus la punct un mecanism de „retrogradare” a continutului care primea reactii „angry” disproportionate, totusi documentele nu clarifica cum si unde a fost folosit acel mecanism, sau ce efect a avut.

Protestatari cu un „angry” gonflabil in fata unei cladiri unde avea loc o sedinta a Facebook.

In iulie, incepuse sa circule o propunere de a reduce valoarea mai multor emoticoane la valoarea unui „like”, sau chiar sa nu mai fie contabilizate. Reactia „angry”, impreuna cu „haha” si „wow”, apareau mai frecvent in legatura cu continut „toxic” si dezinformare. Intr-o alta propunere, de la sfarsitul lui 2019, „love” si „sad” – care aparent este denumit si „sorry” – ar putea avea valoarea a patru „likes” pentru ca erau mai sigure, conform documentelor.

Propunerea era insa dependenta de persoanele de la varf in ierarhia Facebook si daca acestea erau „confortabile cu principiul valorilor diferite pentru diferite tipuri de reactie” arata documentul. Asta ar fi fost un remediu simplu, spunea angajatul Facebook,cu „mai putine ingrijorari legate de politica” decat o incercare tehnica mult mai problematica de a identifica comentariile toxice.

Dar, in ultima clipa, propunerea de a extinde acele masuri la nivel global a fost respinsa.

„Vocea precautiei a invins prin a nu incerca sa faci diferenta dintre diferite tipuri de reactii si drept urmare, a diferitelor emoticoane” a scris un angajat mai tarziu.

Facebook a oprit masurile de siguranta pentru un grup de utilizatori, ca o parte din experiment. Acestora le-au fost prezentate mai multe postari de proasta calitate, dezinformare si continut socant/sexual.

Mai tarziu in acelasi an, ca o parte a unei dezbateri despre modul de ajustare a algoritmului pentru a opri continut care ar putea uzurpa norme democratice, propunerea de a reduce valoarea emoticonului „angry” a aparut din nou in discutie. Un alt angajat a propus inlaturarea de-a binelea a emoticonului. Dar din nou, ponderea lui a ramas la loc.

In fine, anul trecut, avalansa de dovezi a rupt digul. Cercetari aditionale au descoperit ca utilizatorilor nu le placea deloc cand postarile lor primeau reactii „angry”, fie de la prieteni sau de la utilizatori aleatorii, conform documentelor. Facebook a redus ponderea tuturor emoticoanelor la odata si jumatate valoarea unui „like”.

In septembrie (2020), Facebook a oprit, in sfarsit, utilizarea emoticonului „angry” ca un semnal al dorintelor utilizatorilor si a redus valoarea lui la zero, scotandu-l astfel din ecuatie, arata documentele. Valoarea lui este inca zero, a spus Lever. In acelasi timp, au promovat „love” si „sad” la o dubla valoare fata de „like”.

Asta a fost o parte dintr-o mai ampla reglare fina a semnalelor. De exemplu, comentarii cu o singura litera nu mai contau. Pana cand a fost facuta aceasta modificare, comentarii cu doar „yes” sau „.” – tactici folosite pentru a tine sistemul in joc si pentru a aparea mai sus pe feed – contau de 15 ori mai mult decat un „like”.

„Ca orice alta optimalizare, vor exista unele cai de a exploata sau de a obtine avantaje” a spus Lars Bakstrom, vice-presedinte pentru Inginerie la Facebook, intr-un comentariu trimis pe email. „De aceea avem o echipa de integritate care incearca sa urmareasca acele persoane si sa gaseasca solutii de a le combate cat de eficient posibil”.

Schimbare metricii „meaningful social interactions”

Dar din nou, Facebook a facut ajustri la pondere dupa ce paguba era produsa. Facebook a dorit sa incurajeze utilizatorii sa faca streamin live, ceea ce era favorizat peste postari foto sau text, iar live-urile erau evaluate de 600 de ori mai mult. Asta a ajutat la cauzarea unei „viralitati extra-rapide pentru mai multe videouri de slaba calitate” spune un document. Live video pe Facebook a jucat un rol important in evenimente politice, atat in protestele pentru justitia rasiala din ultimul an in urma uciderii lui George Floyd dar si in revolta de la Capitoliul Statelor Unite din 6 ianuarie.

Imediat dupa revolta, Facebook a promulgat in graba masurile „Break the Glass” – masuri de protectie pentru eforturile de securitate pe care anterior le eliminase – reducand valoarea live video la doar 60. Facebook nu a raspuns solicitarilor in vedera comentariilor in ce priveste reducerea valorii pentru live video.

Cand, in sfarsit, Facebook a redus ponderea reactiei „angry” la zero, utilizatorii au inceput sa primeasca mai putine dezinformari, mai putin continut „deranjant” si mai putina „violenta grafica”, au descoperit cercetatorii IT. Pana la urma, dupa ani de insistente si respingeri, nu a mai existat un schimb pana la urma. Conform unuia din documente, activitatea utilizatorilor pe Facebook a ramas neafectata.

sursa: The Washington Post

Despre autor

Daniel Solheim

Sot, tata, pedagog social, contributor si traducator

Lasă un comentariu