BIZIT 11 - prvi dan

Naučnici kreiraju igre kako bi pokazali rizike od prepoznavanja emocija od strane AI

Tehnologija dizajnirana za identifikovanje ljudskih emocija pomoću algoritama mašinskog učenja, ogromna je industrija.

PCPress.rs Image

Kritičari ističu zabrinutost za ljudska prava

Tvrdi se da bi se mogla pokazati korisnom u bezbroj situacija, od bezbednosti na putevima do istraživanja tržišta. Ali kritičari kažu da tehnologija ne samo da izaziva zabrinutost zbog privatnosti, već je netačna i rasno pristrasna. Tim istraživača kreirao je web lokaciju – emojifi.info – na kojoj javnost može da isproba sisteme za prepoznavanje emocija putem sopstvenih računarskih kamera. Jedna igra se fokusira na pravljenje grimasa kako bi prevarila tehnologiju, dok druga istražuje kako se takvi sistemi muče da čitaju izraze lica u kontekstu. Njihova nada je, kažu istraživači, da podignu svest o tehnologiji i promovišu razgovore o njenoj upotrebi. To je oblik prepoznavanja lica, ali ide dalje, jer umesto da samo identifikuje ljude, tvrdi da naše emocije, naša unutrašnja osećanja očitava sa naših lica, rekla je dr Alexa Hagerty, vođa projekta i istraživač na Univerzitetu u Cambridgeu.

Tehnologija prepoznavanja lica, koja se često koristi za identifikaciju ljudi, naišla je na intenzivno ispitivanje poslednjih godina. Prošle godine Komisija za ravnopravnost i ljudska prava rekla je da bi trebalo zaustaviti upotrebu masovnih skrininga, rekavši da bi to moglo povećati policijsku diskriminaciju i naštetiti slobodi izražavanja. Ali Hagerty kaže da mnogi ljudi nisu bili svesni koliko su uobičajeni sistemi za prepoznavanje emocija, napominjući da su takvi sistemi u upotrebi u brojnim segmentima svakodnevnog života, počev od zapošljavanja, do uvida u klijente, obezbeđenja aerodroma, pa čak i obrazovanja (kako bi se utvrdilo da li su studenti angažovani ili rade domaće zadatke). Takva tehnologija je bila u upotrebi širom sveta, od Evrope do SAD-a i Kine.

Pročitajte i:  Može li ChatGPT nekome da spase život?

Taigusys, kompanija specijalizovana za sisteme prepoznavanja emocija i čija je glavna kancelarija u Šenženu, kaže da ih je koristila u okruženjima od domova za negu, do zatvora, dok prema izveštajima ranije ove godine, indijski grad Lucknow planira da koristi tehnologiju za uočavanje uznemiravanja žena – potez koji je naišao na kritike, uključujući i organizacije za zaštitu digitalnih prava. Iako tehnologija prepoznavanja emocija može imati neke potencijalne koristi, ona se mora odvagnuti zbog zabrinutosti oko tačnosti, rasne pristrasnosti, kao i pitanja da li je ta tehnologija uopšte bila pravi alat za određeni posao. Novi projekat omogućava korisnicima da isprobaju tehnologiju prepoznavanja emocija. Sajt napominje da se „ne prikupljaju lični podaci i sve slike se čuvaju na vašem uređaju“. U jednoj igri korisnici su pozvani da naprave niz grimasa kako bi lažirali emocije i videli da li je moguće zavarati sistem.

Tvrdnja ljudi koji razvijaju ovu tehnologiju je da ona čita emocije, ali je u stvarnosti sistem očitavao pokrete lica, a zatim ih kombinovao sa pretpostavkom da su ti pokreti povezani sa emocijama – na primer, osmeh znači da je neko srećan. Postoji mnogo nučnih dokaza koji ukazuju na to da je to previše jednostavno i ne funkcioniše baš tako. I samo ljudsko iskustvo pokazuje da je moguće prikazati osmeh bez stvarne emocije. Neki istraživači prepoznavanja emocija kažu da su svesni takvih ograničenja.

Pročitajte i:  Najnovije ažuriranje Zoom-a je naravno AI asistent

Protivnici upotrebe ove vrste tehnologije kažu da je tehnologija prepoznavanja emocija duboko zabrinjavajuća, jer ne samo da su ovi sistemi zasnovani na diskriminatornoj i diskreditovanoj nauci, njihova upotreba je u osnovi u suprotnosti sa ljudskim pravima.

Izvor: Theguardian

Facebook komentari:
Računari i Galaksija
Tagovi: ,

One thought on “Naučnici kreiraju igre kako bi pokazali rizike od prepoznavanja emocija od strane AI

  • 12. 04. 2021. at 01:25
    Permalink

    Ne radi Vam navedeni link: Tim istraživača kreirao je web lokaciju … (404)

Comments are closed.