Mark Zuckerberg a fost învins de propriul cod. Algoritmul rețelei sociale ar acționa independent

FILE - In this April 11, 2018, file photo, Facebook CEO Mark Zuckerberg takes a drink of water as he testifies before a House Energy and Commerce hearing on Capitol Hill in Washington. Reports of hateful and violent speech on Facebook poured in on the night of May 28 after President Donald Trump hit send on a social media post warning that looters who joined protests following Floyd's death last year would be shot, according to internal Facebook documents shared with The Associated Press. (AP Photo/Andrew Harnik, File)

Documentele interne indică faptul că rețeaua de socializare Facebook nu își poate controla algoritmii, notează BFMTV.

Ce au dezvăluit aceste documentele interne este uluitor. Inginerii admit că nu înțeleg efectele neprevăzute ale propriilor coduri. La fel ca într-un film științifico-fantastic, algoritmii scapă de controlul creatorului lor și „mașinăria” o ia razna.

Care sunt consecințele?

Mesajele, postările, conținutul, sunt cenzurate într-o măsură prea mare sau deloc.

Din 2018, Facebook are un plan. Prioritizează conținutul care provine de la prieteni apropiați sau de la familie. A fost dezvoltat un program în această direcție, pentru a evidenția ceea ce ei numesc „interacțiuni sociale semnificative”. Cu alte cuvinte, fotografiile din vacanța surorii tale mai mici apar cu prioritate față de cea mai recentă știre despre Donald Trump.

Dar obiectivul a fost ratat. Programul a acționat pe dos și a favorizat conținutul conflictual, de exemplu paginile de extremă dreapta și paginile conspirative.

Și de unde vin documentele care dezvăluie aceste probleme? Mii și mii de pagini au fost comunicate Congresului SUA și SEC, organul de control al Bursei din New York, de către o fostă angajată, France Haugen.

La 37 de ani, France Haugen, inginer IT-ist, este acum în război cu Facebook, companie pe care o acuză că a trădat democrația. Ea acuză Facebook că alege profitul în locul siguranței, că acordă prioritate conținutului care primește cele mai multe click-uri și este invariabil cel mai dezbinător, cel care provoacă cea mai mare opoziție.

Cum se apără Facebook?

Oferă două cifre: compania a investit 13 miliarde de dolari și a angajat 40.000 de oameni pentru a lucra la moderarea conținutului.

Denunțătorul răspunde că Facebook-ului îi pasă, de fapt, doar de ceea ce este scris în engleză. În alte limbi, conținutul periculos cade prin fisuri. Ea vorbește despre țări deja dezbinate pe probleme etnice și religioase, care sunt puse în pericol de ceea ce circulă pe Facebook.

Există aproape 3 miliarde de utilizatori activi lunar care tocmai au aflat, deci, că „mașinăria” nu mai este controlată cu adevărat de creatorii săi.

Exit mobile version