G7 poziva na razvoj globalnih tehničkih standarda za AI

Lideri G7 poručuju da bi odgovorno korištenje AI trebalo biti usklađeno s vrijednostima koje uključuju pravičnost, poštovanje privatnosti i "zaštitu od uznemiravanja, mržnje i zlostavljanja na mreži".

Iako su se na trodnevnom samitu u Hirošimi, lideri Grupe sedam (G7) prvenstveno bavili temama koje se tiču nastavka pomoći Ukrajini, daljem sankcionisanju Rusije i smanjenjem uticaja Kine, po prvi put je razgovarano i o regulatornom pristupu vještačkoj inteligenciji (AI).

Dogovori i planovi lidera sedam najnaprednijih svjetskih ekonomija ukazuju na hitnost rješavanja uticaja i ublažavanja rizika oko razvoja AI, pišu svjetski mediji.

'Proces AI Hirošima'

Lideri Grupe sedam pozvali su na razvoj i usvajanje tehničkih standarda kako bi vještačka inteligencija ostala "pouzdana" uz naglasak da pravila za digitalne tehnologije poput AI trebaju biti "u skladu sa zajedničkim demokratskim vrijednostima", ističe Rojters (Reuters).

Poziv je, ukazuje agencija, uslijedio nakon što se Evropska unija (EU), koja učestvuje u G7, ovog mjeseca približila donošenju zakona za regulisanje AI tehnologije, potencijalno prvog sveobuhvatnog AI zakona na svijetu koji bi mogao predstavljati presedan među naprednim ekonomijama.

Pročitajte i ovo: Globalna trka za regulacijom vještačke inteligencije

Iako među zemljama postoje određene razlike oko regulacije vještačke inteligencije, čelnici G7 složili su se 19. maja da do kraja ove godine formiraju ministarski forum nazvan "Proces AI Hirošima" kako bi se raspravljalo o tim pitanjima.

Lideri su također pozvali međunarodne organizacije kao što je Organizacija za ekonomsku saradnju i razvoj (OECD) da razmotre analizu uticaja razvoja politike.

Samit je, podsjeća Rojters, uslijedio nakon prošlomjesečnog sastanka ministara iz zemalja G7, na kojem su članice grupe - SAD, Japan, Njemačka, Britanija, Francuska, Italija, Kanada i EU - navele da bi trebalo da usvoje pravila AI zasnovana na riziku.

Odgovorno korištenje tehnologije

Lideri G7 poručuju da bi odgovorno korištenje AI trebalo biti usklađeno s vrijednostima koje uključuju pravičnost, poštovanje privatnosti i "zaštitu od uznemiravanja, mržnje i zlostavljanja na mreži", piše Agencija Frans pres (Agence France-Presse).

"Ove rasprave bi mogle uključivati teme kao što su upravljanje, zaštita prava intelektualnog vlasništva uključujući autorska prava, promocija transparentnosti, odgovor na manipulaciju stranim informacijama, uključujući dezinformacije, i odgovorno korištenje ovih tehnologija", navodi se u saopštenju G7.

Alati za generisanje teksta kao što su ChatGPT, kreatori slika i muzika komponovana pomoću vještačke inteligencije izazvali su oduševljenje, uzbunu i pravne bitke jer ih kreatori optužuju da grabe materijal bez dozvole, ukazuje AFP i dodaje da su vlade širom svijeta pod pritiskom da što prije ublaže rizike.

Pročitajte i ovo: Šef ChatGPT-a u Kongresu zatražio vladinu regulaciju vještačke inteligencije

Izvršni direktor OpenAI Sam Altman je 16. maja svjedočio pred panelom američkog Senata i pozvao Kongres da nametne nova pravila o naprednoj tehnologiji. Insistirao je da će se vremenom AI koju je razvila njegova kompanija jednog dana "pozabaviti nekim od najvećih izazova čovječanstva, poput klimatskih promjena i liječenja raka".

Međutim, kako je naglasio, "regulatorna intervencija vlada će biti ključna za ublažavanje rizika od sve snažnijih modela".

Prvi razgovori

Novi jezički model vještačke inteligencije iz OpenAI-a natjerao je zemlje širom svijeta da se po prvi put fokusiraju na opasnosti dezinformacija, haosa i fizičkog uništavanja kritične infrastrukture, ističe Njujork tajms (The New York Times).

Pročitajte i ovo: Samit G7 u Hirošimi: Podrška Ukrajini, nove sankcije Rusiji i pritisak na Kinu

Stoga su, pored rasprava o Ukrajini i Kini na samitu u Hirošimi, lideri sedam najvećih demokratskih ekonomija svijeta održali prve razgovore o zajedničkom pristupu regulisanju upotrebe programa vještačke inteligencije poput GPT-4.

Prethodni pokušaji da se grupa navede da se pozabavi daleko jednostavnijim pitanjima iz tehnologije, poput cyber sigurnosti, obično su se završavali floskulama o "javno-privatnim partnerstvima", a nikada nije bilo ozbiljne rasprave o pravilima koja bi usmjeravala upotrebu ofanzivnog cyber oružja, dodao je list.

Ipak, naglasio je Njujork tajms, američki zvaničnici smatraju da u slučaju chatbotova čak i nejasna diskusija može pomoći u uspostavljanju nekih zajedničkih principa: da će korporacije koje donose proizvode biti prvenstveno odgovorne oko pitanja sigurnosti i da moraju postojati pravila transparentnosti koji jasno pokazuju na kojoj vrsti podataka je svaki sistem obučen.

To će, tvrde zvaničnici, omogućiti razgovore o detaljima o tome kako bi ti prvi propisi izgledali.

Zaštitne ograde

Brzi napredak u AI u posljednjih nekoliko mjeseci izazvao je pozive za većim nadzorom nad brojnim aplikacijama, ali postoji malo konkretnog dogovora između vlada o tome kako ih kontrolisati, ukazuje Fajnenšl tajms (The Financial Times).

Predsjednica Evropske komisije Ursula fon der Lajen (von der Leyen) i britanski premijer Riši Sunak (Rishi), bili su uz one na samitu G7 u Hirošimi kako bi pozvali na "zaštitne ograde" nad razvojem AI tehnologije.

Pročitajte i ovo: Zašto se poziva na pauzu u razvoju vještačke inteligencije?

"Želimo da sistemi vještačke inteligencije budu tačni, pouzdani, sigurni i nediskriminatorni, bez obzira na njihovo porijeklo", rekla je Fon der Lajen.
Britanski premijer je rekao da AI ima potencijal da pruži koristi za ekonomski rast i transformiše javne usluge sve dok se koristi "sigurno i sa postavljenim zaštitnim ogradama".

Sunak je dodao da će britanska vlada blisko sarađivati sa međunarodnim saveznicima na koordinaciji pokušaja da se osigura odgovarajuća regulativa za kompanije sa vještačkom inteligencijom.

Motor za pravedniju budućnost

Kako su zemlje G7 svjesne potencijalnih koristi i rizika od vještačke inteligencije, u centru diskusija samita lidera u Hirošimi bila je zabrinutost oko tempa napretka vještačke inteligencije koji nadmašuje razvoj standarda, zbog čega je na samitu naglašena važnost definisanja "zaštitnih ograda" za razvoj AI, ukazuje Forbs (Forbes).

Lideri su se složili da će se uhvatiti u koštac s ovim izazovom i zauzeti pristup "baziran na riziku" za navigaciju kroz ovu neizvjesnu teritoriju. Kako bi usmjerili svoje napore, identifikovali su ključne oblasti: priznavanje važnosti AI, balansiranje njenih rizika i koristi, edukacija o AI i pozivanje na "zaštitne ograde" kada je AI u pitanju.

Kako bi se osigurala odgovorna i sigurna upotreba AI, stručnjaci smatraju da je ključno imati sveobuhvatan regulatorni okvir koji pokriva privatnost, sigurnost i etiku, koji će pružiti jasne smjernice i za programere i za korisnike AI tehnologije.

Pročitajte i ovo: Najveći strahovi i upozorenja 'kuma' vještačke inteligencije

U oblasti obrazovanja, napisao je Forbs, zemlje G7 su shvatile potrebu za ublažavanjem rizika povezanih sa vještačkom inteligencijom obrazovnim institucijama. Ova tema je istaknuta kada su se nedavno sastali ministri obrazovanja iz zemalja G7 i potvrdili svoju namjeru da upravljaju potencijalnim rizicima.

Japan, posebno, prema Centru za strateške i međunarodne studije (CSIS), planira uvesti smjernice o korištenju vještačke inteligencije u školskim okruženjima u školskoj 2023. godini, što ukazuje na proaktivan pristup integraciji AI u obrazovanje uz istovremeno upravljanje potencijalnim rizicima.

Pročitajte i ovo: Kako popularnost ChatGPT-a utiče na promjene u društvu?

Vještačka inteligencija više nije plod naučne fantastike, već sastavni dio stvarnosti, spreman da transformiše svijet na nezamislive načine, napisao je Forbs.

Izazov nije u odupiranju evoluciji AI, zaključuje se, već u osiguravanju da se putanja razvoja uskladi sa zajedničkim vrijednostima, društvenim normama i kolektivnim blagostanjem, da postane oruđe za dobro, katalizator napretka i motor za pravedniju i održiviju budućnost.