Twitter analizira negativna dejstva svojih algoritama

Twitter pokreće novu inicijativu, Odgovorno mašinsko učenje, radi procene bilo koje nenamerne štete koju uzrokuju njegovi algoritmi. Tim inženjera, istraživača i naučnika za podatke iz cele kompanije proučavaće kako Twitter-ovo korišćenje mašinskog učenja može dovesti do algoritamskih pristrasnosti koje negativno utiču na korisnike. Jedan od prvih zadataka je procena rasne i rodne pristrasnosti u Twitter-ovom algoritmu za obrađivanje slika. Korisnici Twittera su istakli da izgleda da njegovi automatski isečeni pregledi fotografija daju prednost belim licima u odnosu na crna lica. Prošlog meseca, kompanija je započela testiranje, prikazujući pune slike umesto isečenih pregleda.

Twitter analizira negativna dejstva svojih algoritama.

 

Povećana svest o važnim diskusijama

Tim će takođe proučiti kako se preporuke za vremenski raspored razlikuju među rasnim podgrupama i analizirati preporuke za sadržaj u političkim ideologijama u različitim zemljama. Twitter kaže da će blisko sarađivati sa nezavisnim akademskim istraživačima i da će deliti rezultate svojih analiza i tražiti povratne informacije od javnosti. Nije jasno koliki će uticaj imati nalazi. Za sada se ne zna koliki bi uticaj na dalji tok razvoja Twitter ovo istraživanje moglo imati.

Pročitajte i:  Threads API dolazi u junu 

Odluka Twittera da analizira sopstvene algoritme za pristrasnost prati druge društvene mreže poput Facebooka, koji su formirali slične timove 2020. godine. Takođe postoje stalni pritisci zakonodavaca da drže pod kontrolom algoritamsku pristrasnost kompanija. Twitter je takođe u ranoj fazi istraživanja algoritamskog izbora, što će potencijalno omogućiti ljudima da više uđu u sadržaj koji im se servira.

Izvor: The Verge

Facebook komentari:
SBB

Tagovi: