Dostupni linkovi

Može li se sprečiti zloupotreba veštačke inteligencije u javnom prostoru?


Novi AI alati sve više olakšavaju kreiranje lažnih video, foto, audio sadržaja.
Novi AI alati sve više olakšavaju kreiranje lažnih video, foto, audio sadržaja.

Postojeći medijski zakoni i početak uvođenja regulative u oblasti veštačke inteligencije u Srbiji nisu bili dovoljni da zaustave emitovanje lažnih video materijala u informativnom programu televizije Pink, jedne od četiri sa nacionalnom frekvencijom u Srbiji.

Novi AI alati sve više olakšavaju kreiranje lažnih video, foto, audio sadržaja.

Ovaj napredak u svetu digitalizacije sve više budi i strah da svako od nas može postati meta zloupotrebe u javnom prostoru, društvenim mrežama, internetu.

Željko Mitrović, vlasnik Pinka, ne samo da ne namerava da prekine ovakvu praksu, već najavljuje novi "zabavno-satirični format" pod nazivom "Čoveče, ne ljuti se".

Nova emisija najavljuje se kratkim video klipovima koje je generisala veštačka inteligencija, a u kojim opozicioni političari izgovaraju lažne i uvredljive tvrdnje.

Lažni video u kojima se pojavljuju bivši predsednik Srbije Boris Tadić, kao i opozicioni političar i lider Stranke slobode i pravde (SSP) Dragan Đilas imaju preko 100.000 pregleda na društvenoj mreži X, nekadašnjem Tviteru.

Snimci su emitovani tokom 12. i 16. avgusta u Nacionalnom dnevniku, centralnoj informativnoj emisiji televizije Pink.

Lider SSP-a Dragan Đilas najavio je tužbu protiv televizije Pink, a ceo slučaj prokomentarisao je i predsednik Vučić tokom gostovanja na Radio-televiziji Srbije (RTS).

Vučić je naglasio da se radi o grubom falsifikatu, te da bi državni organi trebalo da reaguju.

Novinari Radija Slobodna Evropa(RSE) nisu uspeli da saznaju šta su naredni koraci nadležnih državnih institucija, a one se zvanično nisu oglašavale o pomenutom slučaju.

Do objavljivanja ovog teksta na pozive i poruke novinara RSE nije odgovorila predsednica Saveta REM-a Olivera Zekić.

Izostali su i odgovori Vlade Srbije i Ministarstva nauke, tehnološkog razvoja i inovacija koji su tokom marta 2023. godine radili na izradi i usvajanju Etičkih smernica za upotrebu odgovorne i pouzdane veštačke inteligencije.

Eksperti sa kojima su novinari RSE razgovarali upozoravaju da je objavljivanje lažnih sadržaja u medijima nespojivo sa novinarstvom, te da bi prvenstveno trebalo da reaguju medijski regulatori.

Šta bi trebalo da uradi REM?

Regulator bi trebalo da pokrene postupak po službenoj dužnosti, objašnjava nekadašnja članica Saveta REM-a Judita Popović i dodaje da je to zakonska obaveza ovog tela.

"Regulator se stara o tome da informacije budu istinite, tačne i objektivne. Ukoliko su lažirane, to je već kršenje zakona i nema opravdanja za one televizije koje to rade, niti za Regulatora koji ne radi svoj posao u smislu pokretanja postupka", zaključuje Popović.

Sankcije bi trebalo da budu ishod postupka koji kod nas nije ni pokrenut, objašnjava nekadašnja članica REM-a Popović i dodaje da bi sadržaj trebalo ukloniti iz etra.

Da je aktivna uloga regulatora neophodna ističe Marko Milosavljević, redovni profesor Univerziteta u Ljubljani i član stručne grupe Saveta Evrope koja se bavi upotrebom veštačke inteligencije u medijima.

"Očekujemo da u bilo kojoj zemlji na Zapadnom Balkanu imamo efikasnu državu, efikasne regulatore i da imamo barem malo poštene i transparentne vlasnike i glavne urednike medija koji bi odgovorno upotrebljavali veštačku inteligenciju", objašnjava Milosavljević. Dodaje i da se tehnologija koja je na "neki način fascinantna" ne treba koristiti za produkciju "legalno ili etički problematične sadržaja".

To što su se lažni sadržaji našli u dnevniku televizije sa nacionalnom frekvencijom ključni je problem koji ističe izvršna direktorka nevladine organizacije Partneri Srbija Ana Toskić Cvetinović.

"Ovde je poseban problem bio što je prilog koji je emitovan o samoj emisiji pušten i u informativnim programima Pinka, gde je svrha potpuno drugačija od satirične i humoristične. To je posebno pitanje da li se to čini sa namerom da se gledaoci dovedu u zabludu i koja je svrha prikazivanjem ovakvog sadržaja u informativnom programu", zaključuje ona.

Regulatorno telo za elektronske medije (REM) nije se oglašavalo o pomenutim slučaju, a javno dostupnih informacija o tome da li je pokrenuo postupak u vezi sa objavljivanjem spornih video priloga još uvek nema.

Šta su dalji koraci REM-a nismo uspeli da saznamo ni od predsednice Saveta ovog tela Olivere Zekić koja se nije javljala na pozive i poruke novinara RSE.

Ukoliko do pokretanja postupka i dođe, televiziji koja emituje ovakav sadržaj REM može da izrekne različite sankcije.

Nekadašnja članica ovog tela u Srbiji Judita Popović objašnjava kako su sankcije poprilično blage, da se svode na opomene i upozorenje, dok se retko kad privremeno zabrani neki sadržaj ili oduzme frekvencija mediju koji objavljuje sporni sadržaj.

"Kada se radi o televizijma sa nacionalnom frekvencijom sankcije bi trebalo da budu strožije, ali se to ne radi godinama već", zaključuje Popović.

Šta kažu građani o upotrebi veštačke inteligencije?

Zloupotrebu veštačke inteligencije trebalo bi sankcionisati, saglasni su građani Beograda Dobrila Milenović, Radmila Jančić i Vladimir Rutović sagovornici ankete Radija Slobodna Evropa.

"Mislim da je to podlo. Radi se o negativnom ponašanju na televiziji koje odavno postoji", kaže Dobrila Milenović.

"Problem sa veštačkom inteligencijom biće što više, nećemo znati šta je pravo, a šta nije. Može neko da vam stavi u usta reči koje nikada niste rekli. Može da se desi da budemo preplavljeni takvim sadržajem koji je u stvari fejk", smatra Radmila Jančić.

"Propaganda je čudo. To nisu televizije koje bi u Srbiji trebalo da se prikazuju. Ali, na žalost, sve je neozbiljno i netačno", naveo je Vladimir Rutović.

Na pitanje da li možda strahuje da bi oni mogli nekada da postanu žrtve zloupotrebe veštačke inteligencije, Radmila Jančić kaže:

"Mislim da to može da se desi i običnim ljudima. Da vas neko ucenjuje, da vam podmeće ili čak i da vam kvari porodične odnose".

Lažni medijski sadržaji i veštačka inteligencija

Mogu li mediji da koriste veštačku inteligenciju za kreiranje medijskih sadržaja, pitanje je koje se dodatno usložnjava kada se upotrebom ovih tehnologija kreiraju lažni ili manipulativni sadržaji što je po svemu sudeći upravo slučaj sa najavljenom emisijom na Pinku.

Vlada Republike Srbije počela je sa regulacijom veštačke inteligencije.

Etičke smernice za razvoj veštačke inteligencije usvojene su tokom marta 2023. godine. Ovaj dokument treba da bude putokaz svima onima koji rade na razvoju naprednih rešenja, ali i svojevrsan uvod za Zakon o veštačkoj inteligenciji.

Da smernice nisu od velike pomoći kada je kreiranje lažnih medijskih sadržaja u pitanju objašnjava izvršna direktorka nevladine organizacije Partneri Srbija Ana Toskić Cvetinović koja poslednjih godina prati efekte savremenih tehnologija na demokratske procese.

"Jasna ograničenja ne postoje. Mi nismo usvojili zakon koji bi regulisao ovakvo korišćenje veštačke inteligencije, a etičke smernice nisu obavezujuće", ističe Cvetinović na pitanje RSE da li smernice mogu da ograniče kreiranje lažnih medijskih sadržaja upotrebom veštačke inteligencije.

Etičke smernice otvaraju pitanje odgovorne upotrebe veštačke inteligencije, ističe Toskić Cvetinović i dodaje da treba razmotriti pitanje zaštite podataka lica koja su targetirana ovim sadržajima, kao i niz medijskih zakona.

Marko Milosavljević sa Univerziteta u Ljubljani radi na izradi smernica za odgovornu upotrebu veštačke inteligencije u medijima i novinarstvu kao član stručne grupe pri Savetu Evrope.

On ističe da ni jedna tehnologija nije dobra ili loša, pa ni veštačka inteligencije, te da može biti od pomoći kada se radi na skupljanju informacija ili analizi zvaničnih dokumenta.

Međutim, u slučaju manipulacija, kada građani nisu sigurni da je prisutna neka vrsta veštačke inteligencije, potrebno je reagovanje države i regulatora, objašnjava Milosavljević.

Na nivou Evropske unije usvojen je Zakon o veštačkoj inteligenciji.

Međutim, ni on ne daje konkretne odgovore kada je u pitanju kreiranje lažnih video sadržaja upotrebom ove tehnologije.

Milosavljević ističe da je regulativa na području veštačke inteligencije na samom početku.

"Taj zakon je prvi, nekakav stub ili temelj sledećih regulativa koje će morati da dođu za svako relevantno područje posebno. Mediji i novinarstvo su jedno od najdelikatnijih područja kada se radi o upotrebi veštačke inteligencije", zaključuje Milosavljević.

On ističe da će kredibilni mediji raditi na standardima i na polju veštačke inteligencije, ali se plaši kako je prilično veliki broj ljudi koji ne znaju kakve sve manipulacije mogu da se dešavaju i koji nisu svesni da im se serviraju lažne vesti.

Šta je Deepfake?

Tehnologija koja može da manipuliše facijalnom ekspresijom, sintetiše govor i lice naziva se dipfejk (deepfake). Za kreiranje ovih sadržaja koristi se oblik veštačke inteligencije dip lrning (deep learning) i proizvodi lažne fotografije, video sadržaje ili animacije.

Uz onlajn alate gotovo svako može napraviti ovu vrstu sadržaja.

Tehnologija je zasnovana na prepozavanaju obrazaca u podacima. Zbog toga razvoj ovakvog videa ili fotografije obično uključuje unošenje stotine ili hiljade slika u mrežu. Na taj način se algoritam "obučava" da prepozna i rekonstruiše obrasce lica.

Ne postoji jedan univerzalni znak za prepoznavanje dipfejka. Postoji nekoliko detalja na koje se može obratiti pažnja poput facijalne ekspesije, obraza, čela, da li je koža zategnuta ili naborana, naočare i odsjaj u njima i slično, navodi u svojim uputstvima istraživačka laboratorija Masačusetskog instituta za tehnologiju (MIT) koja se bavi razvijanjem i analizom ovih modela.

Međunarodne IT kompanije poput Majkrosofta, Intela, Sentinela ali i instituta kao što je MIT uveliko rade na razvoju i usavršavanju alata i tehnologija za detekciju dipfejka.

Kompanija Sentinel razvija tehnologiju koju uveliko koriste demokratske vlade, vojne agencije, firme, ali i mediji kako bi zaustavili pretnju dipfejka.

Sistem funkcioniše tako što omogućava korisnicima da preko njihove veb stranice analiziraju digitalne sadržaje za koji se utvrđuje da li je dipfejk.

Intelov FejkKečer (prim. Eng. FakeCatcher) može da utvrdi sa 96 odsto preciznosti da li je sadržaj dipfejk ili ne.

Za potrebe običnih građana postoji i besplatan alat WeVerify. Ova ekstenzija pruža korisniku mogućnost da analizira slike ili snimke i utvrdi da li je fotografija stvarna ili dipfejk.

Facebook Forum

XS
SM
MD
LG