Da li je etički koristiti sadržaj generisan veštačkom inteligencijom bez pripisivanja mašini?
Tim istraživača je nedavno razvio algoritam koji generiše originalne recenzije vina i piva.
Transparentnost je ključ
Uzimajući u obzir da računari ne mogu da probaju piće, ovo čini čudnim korišćenje mašinskog učenja.
AI somelije je obučen na bazi podataka koja sadrži stotine hiljada recenzija piva i vina. U suštini, on objedinjuje te recenzije i bira ključne reči. Kada istraživači zatraže od njega da napravi sopstvenu recenziju za određeno vino ili pivo, generiše nešto slično prethodnim recenzijama. Prema istraživačima, njegov rezultat je uporediv i često se ne razlikuje od recenzija koje su kreirali isključivo ljudi. Ovde se postavlja veliko pitanje: kome je ovo namenjeno? Istraživački tim kaže da je to za ljude koji ne mogu da priušte profesionalne recenzente, nemaju inspiraciju da započnu pravi pregled ili samo žele sažetak onoga što je ranije rečeno o napitku.
Da li zaista postoje ljudi toliko privilegovani da mogu da priušte sopstvenog vinara ili pivaru, koji su na neki način takođe izolovani od uticajnih društvenih medija i ogromnog sveta ljubitelja vina i piva? Ovo izgleda kao da bi bilo neverovatno korisno kao marketinška šema, ali, opet, teško je zamisliti da postoje ljudi koji neće da probaju određeno vino ili pivo dok ne mogu da pročitaju šta AI misli o tome. Da li će ljudi koji imaju koristi od korišćenja ove veštačke inteligencije biti transparentni prema ljudima koji konzumiraju sadržaj koji on stvara? Kada su u pitanju individualni ukusi recenzenta, možemo pogledati njihov rad i videti da li se slažemo sa njihovim osećanjima.
Sa veštačkom inteligencijom, mi samo vidimo šta god njen operater izabere. Isto je sa bilo kojom šemom za generisanje sadržaja. Najpoznatiji AI za generisanje sadržaja je OpenAI GPT-3. Smatra se jednom od najnaprednijih AI mreža koje postoje i često se navodi kao najsavremenija industrija za generisanje teksta. Dovoljno je reći da je verovatno sigurna opklada da modeli AI somelijerskog tima ne nadmašuju GPT-3 i stoga zahtevaju barem sličan nivo ljudske pažnje. I tako dolazimo do pitanja – da li je i koliko etično generisati sadržaj bez pripisivanja mašini? Ne postoji svet u kome bi osećanje poput „AI kaže da naše vino ima odličan ukus“ trebalo da bude prodajna tačka. A to znači da bi najverovatniji slučajevi upotrebe AI somelijera verovatno uključivali prećutno dopuštanje ljudima da misle da su njegovi rezultati generisani nečim što bi zaista i moglo da oseti ono o čemu govori. Postojanje AI somelijera, GPT-3, neuronskih mreža koje stvaraju slike i muzičkih generatora napajanih veštačkom inteligencijom stvorilo je potencijalnu etičku noćnu moru.
Možda niste ljubitelj vina ili pivopija, ali to ne znači da ste sigurni od efekata sadržaja generisanog veštačkom inteligencijom koji iskrivljuju stvarnost. U ovom trenutku, da li neko od nas može biti siguran da ljudi ne koriste veštačku inteligenciju za prikupljanje najnovijih vesti i generisanje preformulisanog sadržaja pre nego što ga proslede pod ljudskim autorskim radom? I, u svetu moderne romanse vođenom tekstualnim porukama i aplikacijama za sastanke, možete li ikada biti zaista sigurni da vam se udvara čovek, a ne reči robota Sirano de Beržeraka? Odgovor je – ne. I, verovatno, ovo je veći problem od plagijata, jer postoji izvorni dokument kada ljudi plagiraju jedni druge. Ali kada čovek predstavi rad robota kao svoj, možda ne postoji način da bilo ko to zaista dokaže. To ne čini upotrebu sadržaja generisanog veštačkom inteligencijom inherentno neetičkom. Ali, bez zaštite od takve potencijalno neetičke upotrebe, postoji velika verovatnoća da ćemo biti prevareni. Jasno je da postoji mnogo više pitanja nego odgovora kada je u pitanju etička upotreba sadržaja generisanog veštačkom inteligencijom.
Izvor: Thenextweb