Lažni AI sadržaji: Google uzvraća udarac
Sve je više lažnih sadržaja, pa velike kompanije rade na alatima koji bi mogli da nas sačuvaju od deepfake i drugih fotografija i snimaka koji mogu da budu potencijalno opasni.
O opasnosti od širenja deepfake laži se govori već neko vreme, pa je Microsoft još 2020.godine objavio da radi na tehnologiji koja se bori protiv širenja dezinformacija ovog tipa. Sistem funkcioniše tako što analizira video i foto sadržaja u potrazi za manipulacijama, a ponela je ime Video Authenticator. Google sada planira sličan potez, najviše zbog uspona AI servisa i chatbotova.
Radi se o tri Google funkcije koje su napravljene da prepoznaju prizore koji nisu stvarni, već generisani uz pomoć AI alata. Njihov zadatak je da odrede da li je poreklo neke fotografije zasnovano na realnim događajima, a one koje se prepoznaju kao proizvodi AI „umetnika“ će u rezultatima pretraga biti posebno označene.
Istina je da mnogi već umeju da prepoznaju razliku između pravih i lažnih fotografija, ali ima i onih kojima ta veština nedostaje. Tako se na društvenim mrežama lažne fotografije dele kao prave, što nije strašno ako se na primer radi o slici na kojoj je mladunče pauna, ali jeste ako su u pitanju ozbiljnije stvari.
Prva Google opcija za borbu protiv AI lažnjaka je “About this image”, a korisnicima omogućava da klikni na tri tačke u okviru Google Images rezultata kako bi saznali više o njenom poreklu (recimo kada se prvi put pojavila na internetu i gde se sve pojavila do tog trenutka). Druga se fokusira na detektovanje korišćenja AI alata, a treća se vrti oko saradnje s drugim platformama, kako bi i njih podstakla da obeležavaju lažne AI sadržaje (Midjourney i Shutterstock su se već pridružili inicijativi).
Izvor: Ars Technica