BIZIT 2024

Lažna pornografija: Deepfake kriza u Južnoj Koreji

Deepfake kriza u Južnoj Koreji traje od početka septembra, a razmere koje je poprimila su iznenadile i one koji su navikli na svakojaka čuda. Radi se o pornografskim deepfake sadržajima u kojima su prave žene. Proizvodnja je masivna, a prodaja se održava u chat sobama i na servisima kao što je Telegram.

PCPress.rs Image

Mnogo je već slučajeva u kojima monstrumi koriste AI za svakojake gadosti, pa niko više nije bezbedan. Deepfake je jedan od glavnih momenata u toj priči. Stručnjaci upozoravaju da će ovakvih sadržaja biti sve više i da velike platforme moraju da preduzmu sve da im stanu na put. Deepfake reklame na kojima se na primer vidi zamagljena slika popularne glumice Jenne Ortege su početkom godine pokazale kako ova tehnologija može da se zloupotrebi. Poslužile su kao reklama za igru u kojoj korisnici mogu da svlače i oblače Ortegu, a jedan od problema je bio i u tome što se koristila fotografija koja je snimljena u vreme kada je bila maloletna.

Lažni pornografski sadržaji su skrenuli pažnju mejnstrim javnosti još pre nekoliko godina. Već neko vreme se dakle približavamo svetu u kojem nećemo moći da budemo sigurni u verodostojnost bilo kojeg audio-vizuelnog snimka, što već utiče na gubljenje poverenja u medije, sudove i javne institucije.

Pročitajte i:  Snapchat AI funkcija selfija - kako da je isključite 

Nakon što je platforma Pornhub u februaru 2018. objavila da će uklanjati deepfake sadržaje u kojima su lica poznatih ličnosti, ali i običnih građana, „lepljena“ na porno snimke koji na kraju izgledaju prilično realno, kompanija Naughty America odlučila je da ovakve sadržaje stavi u službu sopstvenog poslovanja, pa je lansirala servis koji korisnicima omogućava da sadržaje prilagode sopstvenom ukusu, i da uključe svoj lik u erotske klipove koje gledaju. Od tada deepfake sve više ulazi u mejnstrim, i postaje dostupan i običnim građanima.

Mlađe generacije su u posebnoj opasnosti, jer poznaju alate koji do skoro nisu mogli ni da se zamisle, a koriste ih i za opasne stvari. Vršnjačko nasilje je ozbiljan problem, a društvene mreže su situaciju samo pogoršale – onaj/a koji je napadnut/a više nema mira ni kod kuće. Napadači idu i dalje, pa su savladali deepfake (problem nije nepoznat ni u našim školama). Dvojica tinejdžera su u martu 2024. godine uhapšeni u Majamiju, a to je prvo hapšenje koje je u vezi s kreiranjem i deljenjem eksplicitnih AI sadržaja. Slične probleme smo imali i u našoj zemlji.

Pročitajte i:  Vertiv predstavio rešenje za upravljanje i nadzor temeljeno na oblaku: Vertiv™ Environet™ Connect

Kada je situacija u Južnoj Koreju u pitanju, ne radi se samo o poznatim ličnostima, već i o građankama koje nisu poznate javnosti. Najstrašnije u celoj priči je to što su žrtve i maloletne osobe. Niko izgleda nije bezbedan, jer počinioci fotografije i video snimke kradu sa društvenih mreža. Kriza je pogodila i većinu škola u ovoj zemlji.

Samo u jednoj grupi onih koji traže ovakve sadržaje je čak 227 hiljada članova, a svaki od njih može da pošalje fotografiju žene koju želi da vidi u lažnom porno filmu. Rezultat stiže za samo 5 sekundi, a svaki od 227 hiljada muškaraca može da ga vidi. Mediji se temom jedva bave, ali se pokreću istrage, a građani protestuju.

Eksperti preporučuju da se vodi računa o tome šta se deli na društvenim mrežama, ali taj savet nije naročito koristan. Napadačima je potrebno tek nekoliko običnih fotografija da bi mogli da naprave deepfake sadržaje, što znači da niko nije potpuno siguran sve dok ne obriše sve što je podelio na internetu. Čak i ako se to uspešno izvede, napadači do fotografija mogu da dođu i na druge načine (često su naručioci sadržaja prijatelji, kolege, čak članovi porodice), pa nam ostaje da se nadamo da nećemo privući pažnju neke grupe koja AI koristi kao alat za ucenjivanje. Ili da će se odgovarajući zakoni uskoro naći u ulozi zaštitnika.

Pročitajte i:  Infosys i Microsoft proširuju partnerstvo

Još jedna mera koja bi mogla da pomogne u borbi protiv opasnih deepfake sadržaja je uklanjanje iz rezultata pretraživanja, a iz kompanije Google kažu da aktivno rade na smanjivanju vidljivosti takozvane „sintetičke pornografije“. Tako je tokom aprila 2024. godine smanjen saobraćaj na web sajtovima na kojima se nalaze AI generisani erotski snimci (dva najveća ovakva sajta su zabeležila smanjenje broja poseta od 21 i 25%).

Facebook komentari:
Računari i Galaksija
Tagovi: , , , , ,

Leave a Reply

Your email address will not be published. Required fields are marked *