OpenAI Sora i izazovi u detekciji deepfake sadržaja
OpenAI je nedavno predstavio naprednu platformu za generisanje video sadržaja, Sora 2, koja omogućava korisnicima da kreiraju hiperrealistične video zapise koristeći veštačku inteligenciju. Iako su ovi video zapisi često impresivni, postavljaju ozbiljna pitanja u vezi sa etikom, privatnošću i mogućnostima zloupotrebe.

Problemi sa detekcijom i označavanjem sadržaja
Jedan od ključnih izazova u vezi sa Sora 2 je efikasnost sistema za označavanje deepfake sadržaja. Iako je implementiran sistem zasnovan na standardu C2PA (Coalition for Content Provenance and Authenticity), koji omogućava dodavanje metapodataka u video zapise, u praksi se pokazalo da ovaj sistem nije dovoljno efikasan. Mnogi video zapisi generisani putem Sora 2 ne nose vidljive oznake ili vodene žigove, a metapodaci često nisu očigledni korisnicima. Ovo otežava prepoznavanje veštački generisanog sadržaja i povećava rizik od njegove zloupotrebe.
Stručnjaci upozoravaju da je označavanje sadržaja samo jedan deo rešenja. Potrebna je šira primena standarda kao što je C2PA, kao i saradnja između tehnoloških kompanija, kreatora sadržaja i zakonodavaca kako bi se obezbedila veća transparentnost i odgovornost u vezi sa generisanim sadržajem.
Izvor: Theverge


