Twitter testira funkciju bezbednog režima
Safety Mode će obeležavati naloge koji koriste govor mržnje ili koji spamuju druge korisnike komentarima i blokirati ih na 7 dana.
Twitter pokreće funkciju za koju se nada da će pomoći u suzbijanju zloupotrebe i trolovanja
Ova funkcija će automatski raditi kada se omogući, skidajući teret sa korisnika i suočavanje sa neželjenim tvitovima. U početku će biti testiran na maloj grupi korisnika. Funkcija se može uključiti u podešavanjima, a sistem će proceniti i sadržaj tvita i odnos između autora tvita i replikatora. Nalozi koje prati korisnik ili sa kojima često komunicira neće se automatski blokirati.
Kao i druge platforme društvenih medija, Twitter se oslanja na kombinaciju automatizovane i ljudske moderacije. Iako nikada nije zvanično rečeno koliko moderatora koristi, izveštaj za 2020. godinu sugeriše da ih ima oko 1.500, koji kontrolišu 199 miliona korisnika Twittera dnevno. Nedavna studija o govoru mržnje koju je napravila Facts Against Hate u ime finske vlade, otkrila je da je Twitter “najgori od tehnoloških divova” kada je govor mržnje u pitanju. Odgovor je upotreba sistema veštačke inteligencije koje su ljudi obučavali. Jednostavno isticanje određenih reči ili fraza, tehnika na koju se oslanjaju mnoge društvene mreže, nije bila dovoljna.
Uporedo sa suočavanjem sa zloupotrebom na platformi, Twitter je postao odlučniji u borbi protiv dezinformacija. U avgustu je sklopio partnerstvo sa Reutersom i Associated Pressom kako bi razotkrio lažne informacije i zaustavio njihovo širenje. Ranije je predstavio Birdwatch, sistem za moderiranje zajednice, koji je dozvoljavao volonterima da označe tvitove za koje smatraju da su netačni.
Izvor: Bbc