
U vrlo kratkom vremenu, Deepfakeovi su od znatiželje postali glavobolja. za platforme, medijske kuće i kreatore politika. videozapisi kreirani pomoću umjetne inteligencije Sposobni su klonirati lica i glasove s takvim realizmom da ih je, na prvi pogled, gotovo nemoguće razlikovati od autentičnog snimka.
U ovom kontekstu, YouTube je odlučio napraviti još jedan korak. S proširenjem svog sistema za detekciju sličnosti pokretanog umjetnom inteligencijom, alata dizajniranog za lociranje i upravljanje sadržajem gdje se slika osobe koristi bez njenog pristanka, ovaj potez dolazi u posebno osjetljivom trenutku, s izborima na vidiku u nekoliko zemalja i sve većim pritiskom, uključujući i onaj iz Evrope, da se riješe rizici audiovizuelnih dezinformacija.
Od Content ID-a do detekcije sličnosti generirane umjetnom inteligencijom
YouTubeova nova tehnologija, interno poznata kao detekcija sličnosti, je očigledno inspirisan od Content ID, sistem referenci autorskih prava na platformiDok Content ID upoređuje audio zapise i video fragmente sa katalogom zaštićenih djela, alat protiv deepfake-a se fokusira na identitet: lica, crte lica i, postepeno, na glas i druge biometrijske elemente.
U praksi, Osobe uključene u program postavljaju referentni materijal (na primjer, lični video i identifikacijski dokument) koji omogućava sistemu da obuči profil sličnosti. Nakon toga, platforma analizira novopostavljene video zapise kako bi otkrila da li se slika te osobe pojavljuje generirana ili modificirana od strane vještačke inteligencije u sadržaju u kojem ta osoba nije učestvovala.
Kada sistem pronađe podudaranje, Šalje upozorenje zaštićenoj osobi da pregleda materijal.Ako smatrate da video krši vašu privatnost ili pravila platforme - na primjer, zato što simulira izjave ili geste koje nikada niste napravili - možete pokrenuti formalni postupak uklanjanja.
Međutim, YouTube insistira na tome Detekcija ne podrazumijeva automatsko brisanje sadržajaSvaki slučaj prolazi ljudsku provjeru u svjetlu pravila platforme o privatnosti, dezinformacijama i građanskom sadržaju, nastojeći spriječiti da alat postane brzi put do utišavanja legitimne kritike.

Od kreatora do političara, zvaničnika i novinara
Kada je YouTube pokrenuo ovu tehnologiju 2024. godine, učinio je to na ograničen način za kreatori integrirani u YouTube partnerski programPartnerski program okuplja kanale s najvećom publikom i najvećom monetizacijom. Početna ideja bila je zaštititi one koji već pate od čestog lažnog predstavljanja, od poznatih YouTubera do poznatih sportista, glumaca i emitera.
Nakon te prve faze, kompanija je odlučila proširiti opseg na novu pilot grupu sastavljenu od vladinih zvaničnika, političkih kandidata i novinaraOvo su profili koji su posebno podložni kampanjama manipulacije, gdje izmišljeni video može imati direktan uticaj na javno mnjenje, ishod izbora ili kredibilitet medijske kuće.
Prema platformi, sistem omogućava ovim ljudima proaktivno pratite kako se koristi vaša slika generirana umjetnom inteligencijom na YouTubeu, i, ako se otkrije zloupotreba, zatražiti pregled sadržaja i, ako je potrebno, njegovo uklanjanje. Navedeni cilj je smanjiti sposobnost deepfakeova da iskrivljuju političku debatu bez čekanja da se već nanese šteta po ugled.
Kompanija nije precizirala koliko profila je dio ove početne faze niti je dala konkretna imena, ali je jasno stavila do znanja da Namjera je postepeno uključiti više javnih ličnosti visokog rizika. ako se pilotni projekat pokaže efikasnim. U međuvremenu, milioni kreatora koji su već u partnerskom programu zadržat će pristup istim alatima.
Proces verifikacije i uslovi za pristup
Da bi koristili alat za detekciju deepfake-a, učesnici moraju proći kroz prethodni proces provjere identitetaOvaj korak uključuje dostavljanje ličnog videa i službenog dokumenta, slično načinu na koji to rade neke finansijske usluge ili platforme za online verifikaciju.
YouTube naglašava da Prikupljeni podaci se koriste isključivo za potvrdu identiteta i kreiranje zaštitnog profilai da se neće koristiti za obuku Googleovih modela vještačke inteligencije. Ovo pojašnjenje nije slučajno: korištenje biometrijskih podataka za napajanje AI sistema jedna je od najosjetljivijih tačaka u trenutnoj regulatornoj debati, posebno u Evropskoj uniji, gdje se budući okvir za vještačku inteligenciju fokusira upravo na ove rizike.
Nakon što je profil verifikovan, korisnik može pristupiti panelu gdje može pregledati otkrivene podudarnosti i upravljati zahtjevima za uklanjanje. Ovaj proces podsjeća na način na koji funkcioniše Content ID, gdje Nosioci prava biraju između blokiranja, monetizacije ili jednostavnog praćenja. videozapise koji koriste njegov zaštićeni sadržaj.
U slučaju alata za provjeru sličnosti, za sada je ključna opcija zahtjev za uklanjanje iz razloga privatnosti ili lažnog predstavljanja, iako je kompanija nagovijestila mogućnost uključivanja drugih odgovora u budućnosti, poput ograničavanja vidljivosti ili istaknutijeg označavanja da je sadržaj sintetički.

Balansiranje zaštite identiteta i slobode izražavanja
Jedna od stvari koju YouTube najviše naglašava je ravnoteža između zaštite od lažnog predstavljanja i odbrane slobode izražavanjaKompanija ističe da platforma podržava žanrove poput parodije, političke satire i humora, koji se često poigravaju preuveličavanjem ili iskrivljavanjem slike javnih ličnosti.
Stoga, čak i ako sistem otkrije deepfake političkog lidera ili medijske ličnosti, Nije garantovano da će video nestatiAko postane jasno da je sadržaj šala, očigledna kritika ili politički komentar koji je dio javne debate, platforma može odlučiti da ga zadrži dostupnim, čak i ako je generiran ili manipuliran umjetnom inteligencijom.
Ovaj pristup također nastoji izbjeći tzv. obeshrabrujući učinakDrugim riječima, sama mogućnost žalbe navodi kreatore na samocenzuru iz straha od gubitka vidljivosti ili snošenja kazni. Kompanija tvrdi da, među poznatim ličnostima i velikim kreatorima koji već koriste alat, Broj zahtjeva za brisanje do sada je bio relativno nizak.I veliki dio otkrivenih videa smatran je bezopasnim ili čak korisnim za popularnost subjekta.
Međutim, u političkoj i novinarskoj sferi, osjetljivost je veća. Vjerodostojan video koji prikazuje kandidata kako izgovara fraze koje nikada nije rekao ili novinara koji podržava lažne teorije može imati neposredan uticaj na izborne procese ili na povjerenje u medijeOvo prisiljava platformu da bude preciznija prilikom procjene slučajeva.
Regulatorni pritisak i međunarodni kontekst
Širenje ovog alata ne može se razumjeti bez regulatornog i političkog konteksta koji ga okružuje. Generativna umjetna inteligencija i njena uloga u dezinformacijamaU Sjedinjenim Američkim Državama, YouTube je izrazio podršku prijedlogu poznatom kao Zakon BEZ LAŽI, čiji je cilj stvaranje federalnog okvira za zaštitu glasova i slika ljudi od neovlaštenih reprodukcija korištenjem umjetne inteligencije.
Iako se o ovoj zakonodavnoj inicijativi raspravlja s druge strane Atlantika, Njegov duh je usklađen s naporima Evropske unije uspostavljanjem jasnih pravila o transparentnosti, sljedivosti i odgovornoj upotrebi sintetičkog sadržaja. Predstojeća evropska uredba o vještačkoj inteligenciji i druga pravila o digitalnim uslugama podstiču glavne platforme da ugrade mehanizme za otkrivanje, označavanje i kontrolu vještački generisanih videa.
U Evropi, fokus nije isključivo na zaštiti poznatih ličnosti. Vlasti EU su također zabrinute zbog kumulativnog efekta lažnog sadržaja na kvalitet demokratske debate, posebno tokom izbornih perioda. U tom kontekstu, Odluka o davanju prioriteta osobama visokog rizika poput političara ili novinara uklapa se u logiku da se prvo smanji potencijal za najozbiljniju štetu o demokratskim institucijama i procesima.
Za YouTube, kretanje u ovom smjeru ne samo da odgovara na politički pritisak, već i na potrebu da se Održavanje povjerenja korisnika, oglašivača i kreatora na platformi. Širenje lažnih, obmanjujućih ili nekvalitetnih videa koje masovno generira umjetna inteligencija već je prisililo kompaniju da pooštri svoje politike protiv neželjene pošte i neprozirnog automatiziranog sadržaja.

Sistemski problem za platforme i javnu debatu
Nedavni napredak u generativnim modelima transformirao je Deepfakeovi su sistemska prijetnja Ovo utiče na pojedince, kao i na institucije, kompanije i medije. U slučaju evropskih javnih ličnosti - od zastupnika u Evropskom parlamentu do regionalnih ili nacionalnih zvaničnika - manipulisani video snimci mogu se koristiti za sijanje nepovjerenja, polarizaciju debata ili širenje obmanjujućih informacija velikom brzinom.
S obzirom na ovaj scenario, YouTubeova strategija se uklapa u širi trend koji slijede i druge velike tehnološke kompanije. Platforme poput Mete, TikToka i profesionalnih mreža su... eksperimentisanje s mehanizmima automatskog otkrivanja i označavanja sintetičkog sadržaja, kao i sa specifičnim obavještenjima o građanskim ili izbornim pitanjima.
Paralelno s tim, tehnološka industrija počinje razmatrati Detekcija umjetnom inteligencijom i verifikacija digitalnog identiteta kao novi sloj infrastruktureZa evropske medijske kompanije i javne uprave, mogućnost provjere porijekla i autentičnosti videa postaje sve važniji zahtjev u njihovim komunikacijskim politikama.
Sam YouTube je nagovijestio da njegov plan uključuje ne samo daljnje poboljšanje detekcije lica, već i proširenje tehnologije na klonirani glasovi, karakteristični gestovi i drugi elementi identitetaAko se ovaj trend nastavi, to će također prisiliti zakonodavce i tijela za zaštitu podataka da ažuriraju kriterije i zaštitne mjere, posebno unutar EU, gdje je upotreba biometrijskih podataka strogo regulirana.
Sve u svemu, širenje YouTubeovog alata za detekciju deepfake-a pokazuje koliko daleko Platforme rekonfigurišu svoje sisteme kako bi koegzistirale sa generativnom vještačkom inteligencijomDok promovišu kreativne alate za svoje korisnike, prisiljeni su da koriste sve sofisticiranije štitove protiv digitalnog lažnog predstavljanja i manipulacije informacijama, obraćajući posebnu pažnju na one koji održavaju javnu debatu, poput kreatora politika i novinara.