Što će Facebook brisati, a što ne?
Ono što je za nekoga „sloboda mišljenja“, za druge može biti „širenje mržnje“ i „brutalno nasilje“. U izvještaju britanskog lista Guardian se pojašnjava prema kojim pravilima se ravna Facebook
Zelena kvačica ili crveni križić čine razliku. Zeleno znači: ovo prolazi, a crveno znači: briši. Navodimo nekoliko primjera. Poziv da se tuku pretila djeca ("Let's beat up fat kids") Facebook dozvoljava, kao i poziv na nasilje protiv osoba sa crvenom bojom kose ("Kick a person with red hair"). Drugačije izgleda ako netko pozove na izvršenje atentata na američkog predsjednika ("Someone shoot Trump") ili napad nožem na židove ("#stab and become the fear of the zionist"). Za to postoji crveni križić što znači da te poruke trebaju biti izbrisane.
Facebook i njegov odnos prema mržnji i nasilju: sam EU ili njemačke vlasti su imale poteškoća prilikom dobivanja točnih informacija. Kako postupa Facebook? Kada djeluje društvena mreža koja odavno nastupa kao medijski koncern?
Britanski „Guardian" je ovoga tjedna unio malo jasnoće i objavio Facebookova interna pravila o tematiziranju seksa, terorizma i nasilja. Na više od 100 stranica je napisano kako postupati - što kod onoga tko to čita stvara dojam da Facebook pokušava dovesti stvari pod svoju kontrolu. No koncern Marka Zuckerberga se u međuvremenu nalazi pod sve većim međunarodnim pritiskom.
"Preveliki zadatak"
"Facebook nema kontrolu nad sadržajima", citira „Guardian" neimenovani izvor. „Prebrzo je postao prevelik." U Njemačkoj Markus Reuter iz organizacije Netzpolitik.org već godinama prati ovaj problem. „Facebook stalno radi na poboljšanju", izjavio je Reuter za Deutsche Welle i dodao: „Također je jasno da je ovo postao veliki zadatak." Reuter je također primijetio da fotografije ili video snimke imaju određenu ulogu, kao recimo kada je riječ o zlostavljanju životinja.
Je li to već sadizam?
U Facebookovoj dokumentaciji je pored ostalog navedeno: „Ne dozvoljavamo korisnicima dijeljenje fotografija i video snimaka ljudi i životinja koji umiru ili koji su ranjeni ako se istovremeno izražava sadizam."
Dakle, pažnja se ne pridaje toliko fotografiji kao što se pridaje onome što će reći korisnici. Koliko je ovo polje problematično pokazuje primjer iz SAD koji navodi Markus Reuter: na jednom objavljenom videu se vidi kako policajac ubija osobu crne boje kože. Policija od Facebooka traži da se taj video izbriše.
„U međuvremenu imamo skoro dvije milijarde korisnika. Vrlo je teško postići konsenzus o tome što može biti dozvoljeno, a što ne", citira „Guardian" Moniku Bickert koja za Facebook radi kao "Head of Global Policy Management". Možda je previše ambiciozan zahtjev da se širom svijeta uspostave važeća pravila. „Kada se radi o povredi časti, u Njemačkoj je to drugačije nego na Tajlandu", kaže Reuter.
"Želimo više transparentnosti"
Prema navodima medija, širom svijeta za Facebook radi oko 4.500 tzv. moderatora koji se brinu o sadržajima na Facebookovim stranicama. „Süddeutsche Zeitung" je u prosincu prošle godine objavio tekst u kojem se bavio uvjetima rada tih moderatora u Njemačkoj. U spomenutom tekstu se pored ostalog navodi da su slabo plaćeni i da nemaju adekvatan psihološki nadzor.
„Tu je i pitanje troškova", dodaje Reuter. Za odluku što će izbrisati, a što ne jedan moderator na Facebooku ima na raspolaganju između sedam i dvanaest sekundi. Čak i najbrutalniji autori govora mržnje na raspolaganju imaju više vremena.„Ono što želimo od Facebooka je više transparentnosti", izjavio je Reuter za DW. Na primjer, da se tromjesečno podnosi izvještaj o tome što je sve izbrisano s Facebooka. Reuter smatra da bi to pomoglo više od zakona njemačkog ministra pravosuđa Heika Maasa, kojim se na temelju državnih kriterija odlučuje što je još sloboda mišljenja, a što ne.
Novi komentar