Dacă despre TikTok putem spune că reprezintă „estul sălbatic”, unde dezinformarea și campaniile de promovare politică în beneficiul unor anume narative și candidați sunt la ordinea zilei, pe Facebook, Instagram și restul platformelor Meta moderarea conținutului pare că a mers în cealaltă direcție, până și directorul executiv Nick Clegg, președintele pentru afaceri globale al Meta, declarând în fața reporterilor că ”ratele de eroare” ai algoritmilor de moderare a conținutului ”sunt încă prea mari”, promițând să ”îmbunătățească precizia și acuratețea cu care acționăm conform regulilor noastre”.
”Știm că atunci când ne aplicăm politicile, ratele noastre de eroare sunt încă prea mari, ceea ce împiedică libertatea de exprimare pe care ne-am propus să o asigurăm”, a spus președintele pentru afaceri globale al Meta în timpul unui interviu acordat reprezentanților presei. ”Prea des, conținutul inofensiv este eliminat sau restricționat, iar prea mulți oameni sunt penalizați pe nedrept.” Clegg susține că Meta regretă că a eliminat în mod agresiv postările despre pandemia covid-19.
De asemenea CEO-ul Mark Zuckerberg a declarat recent Comitetului judiciar al Camerei, condus de republicani, că decizia a fost influențată de presiunea administrației Biden.
”Am avut reguli foarte stricte care eliminau volume foarte mari de conținut distribuit în perioada de pandemie”, a spus Clegg. ”Nimeni în timpul pandemiei nu știa cum se va desfășura pandemia, așa că aceasta este într-adevăr înțelepciune în retrospectivă. Dar, având în vedere retrospectiva, simțim că am exagerat puțin. Suntem foarte conștienți pentru că utilizatorii și-au ridicat vocea pe bună dreptate și s-a plâns că uneori exagerăm și facem greșeli și eliminăm sau restricționăm conținutul inofensiv sau inocent.”
Analizând declarațiile lui Nick Clegg, rezultă că oficialul Meta nu este prea încântat de rezultatele obținute cu sistemele automate de moderare a conținutului, dezvoltate cu investiții de miliarde de dolari anual. Ajustate pentru blocarea cât mai eficientă a conținutului periculos, sistemele automate de moderare au devenit prea obscure, intervenind la cele mai mici semne pentru a „tăia” vizibilitatea postărilor, sau pentru a le bloca pur și simplu. Iar cu toate acestea, filtrele Meta nu par a fi chiar atât de eficiente împotriva conținutului cu adevărat dăunător, formulat special pentru a păcăli vigilența algoritmilor de inteligență artificială.
Astfel, compania și-a cerut scuze în mod public după ce sistemele sale au cenzurat fotografii cu președintele ales Donald Trump, care supraviețuia unei tentative de asasinat. Iar propriul Consiliu de Supraveghere a avertizat recent, înainte de alegerile prezidențiale din SUA, că erorile de moderare riscă „eliminarea excesivă a discursului politic”.