Više od 1.000 tehnoloških lidera i istraživača, uključujući Ilona Maska (Elon Musk), putem otvorenog pisma pozvali su laboratorije za vještačku inteligenciju (AI) da pauziraju razvoj najnaprednijih sistema.
Upozoravaju da alati vještačke inteligencije predstavljaju "duboke rizike za društvo i čovječanstvo".
Istovremeno, dok stručnjaci pozivaju vlade da se umiješaju i stave moratorij na razvoj najmoćnijih sistema AI, napredovanje zakonske regulacije ove oblasti u SAD i Evropi nailazi na kritike, pišu svjetski mediji.
Pauza na pola godine
Grupa poslovnih lidera i akademika potpisala je pismo tražeći od kompanija kao što su OpenAI, Gugl (Google) i Majkrosoft (Microsoft) da pauziraju razvoj snažnijih sistema vještačke inteligencije kako bi industrija mogla da procijeni rizike koje oni predstavljaju, ističe Vašington post (The Washington Post).
Pismo je potpisalo oko 1.000 stručnjaka iz poslovnog, akademskog i tehnološkog svijeta među kojima i Ilon Mask, izvršni direktor Tvitera (Twitter) i Tesle, iskusni kompjuterski naučnik Džošua Bendžio (Yoshua Bengio) i izvršni direktor startapa Stabiliti (Stability AI), Emad Mostak (Mostaque).
Potpisivanje pisma organizovala je neprofitna organizacija, popularna među tehnološkim milijarderima, Institut za budućnost života (Future of Life Institute) koja je, dodaje Vašington post, posvećena istraživanju egzistencijalnih rizika po čovječanstvo i koja već dugo upozorava na opasnosti vještačke inteligencije.
Lista potpisnika nije uključivala više rukovodioce u OpenAI ili drugim kompanijama tehnoloških divova, kao ni istaknute kritičare vještačke inteligencije - poput Timnita Gebrua, bivšeg inženjera u Guglu - koji već dugo upozoravaju na neposrednije rizike nove tehnologije, naročito nakon što su javnosti predstavljeni novi chat botovi.
Istraživači etike umjetne inteligencije su, naglasio je vašingtonski list, više puta ponavljali da fokusiranje na rizike razvoja vještačke inteligencije - koja je na ljudskom nivou ili više - odvlači pažnju od neposrednijih problema koje je tehnologija već stvorila, kao što je unošenje seksističkih i rasističkih predrasuda u više tehnoloških proizvoda.
U pismu se poziva na šestomjesečnu pauzu u izgradnji novih alata vještačke inteligencije koji su moćniji od GPT4, koji je kompanija OpenAI predstavila javnosti ranije ovog mjeseca. Laboratorije za umjetnu inteligenciju i kompanije koje na tome rade bi umjesto toga trebale razviti skup smjernica za novu tehnologiju AI koje bi vanjski stručnjaci mogli revidirati.
Potencijalni rizici za društvo i čovječanstvo
U pismu grupe istaknutih stručnjaka iz tehnološke industrije objavljenom u srijedu, 29. marta, opisani su potencijalni rizici za društvo i čovječanstvo koje donosi vještačka inteligencija - od pretrpavanja interneta dezinformacijama i automatizacije radnih mjesta do katastrofalnijih budućih rizika opisanih u sferi žanra naučne fantastike, ukazuje agencija Asošiejtid pres (The Associated Press).
Navodi se da su "u posljednjih nekoliko mjeseci AI laboratorije u trci van kontrole za razvoj i implementaciju sve moćnijih digitalnih umova koje niko - čak ni njihovi kreatori - ne mogu razumjeti, predvidjeti ili pouzdano kontrolisati".
Potpisnici pisma pozivaju sve laboratorije vještačke inteligencije da naprave pauzu koja bi "trebala biti javna i provjerljiva i koja bi trebala uključivati sve ključne aktere". Ako kompanije ne pristanu na to, pozivaju vlade da se umiješaju i uvedu "moratorij" na razvoj vještačke inteligencije.
Iako OpenAI, Majkrosoft i Gugl nisu odgovorili na zahtjeve za komentarom na dan objave pisma, ono je, ukazuje Asošiejtid pres, izazvalo kritike. Profesor digitalnog i informacionog prava na Univerzitetu Kornel Džejms Grimelman (James Grimmelmann) je kazao da je zahtjev za pauzom dobra ideja, ali da je "pismo nejasno i ne uzima ozbiljno regulatorne probleme".
- Musk među stručnjacima koji traže pauzu u razvoju umjetne inteligencije
- Musk izgubio, pa ubrzo vratio titulu najbogatije osobe na svijetu
Također je rekao da je potpis Ilona Maska "duboko licemjeran s obzirom na to koliko se Tesla borio protiv odgovornosti za neispravnu vještačku inteligenciju u svojim samovozećim automobilima".
Potreba za zakonskom regulacijom
Brojne vlade već rade na regulisanju visokorizičnih alata vještačke inteligencije, ističe AP dodajući da zakonodavci u Evropskoj uniji (EU) pregovaraju o usvajanju sveobuhvatnih pravila o vještačkoj inteligenciji koji su predloženi 2021., dok je Velika Britanija u srijedu 29. marta, objavila dokument o svom pristupu za koji kaže da će "izbjeći teške zakone koji bi mogli ugušiti inovacije".
Dokument britanske vlade o zakonskoj regulativi vještačke inteligencije uopšte ne sadrži nova ovlaštenja, ukazuje Gardijan (The Guardian). Umjesto toga, tvrde iz vlade, fokus je na koordinaciji postojećih regulatora kao što su Uprava za konkurenciju i tržište i Izvršna uprava za zdravlje i sigurnost, nudeći pet "principa" kroz koje bi trebali razmišljati o AI.
Među onima koji su kritikovali pristup britanske vlade bio je Majkl Brtvistl (Michael Birtwistle), koji se bavi zakonima i politikom o podacima i vještačkoj inteligenciji pri istraživačkom institutu Ejda Lavlejs (Ada Lovelace Institute).
On smatra da pristup ima "značajne nedostatke", dok će "vladin vremenski okvir od godinu dana ili više za implementaciju ostaviti neriješene rizike baš u trenutku kada se AI sistemi integrišu u svakodnevni život".
U Sjedinjenim Državama, pojedini zakonodavci su pozvali na nove propise o vještačkoj inteligenciji i njenom razvoju, mada stručnjaci upozoravaju da suštinski prijedlozi nisu napredovali kroz zakonodavstvo i da je nedovoljno učinjeno za regulaciju AI u SAD, napisao je Njujork tajms (The New York Times).
"Ove stvari oblikuju naš svijet", rekao je akademik koji je među potpisnicima pisma objavljenog 29. marta Geri Markus (Gary Marcus), koji se dugo žalio na nedostatke u sistemima vještačke inteligencije naglašavajući probleme "korporativne neodgovornosti, nedostatka regulative i ogroman broj nepoznanica".
S druge strane, ukazao je list, kreatori politike EU predložili su zakon osmišljen da reguliše tehnologije vještačke inteligencije koje mogu uzrokovati štetu, uključujući sisteme za prepoznavanje lica. Očekuje se da će zakon biti usvojen već ove godine, a mjera bi zahtijevala od kompanija da izvrše procjenu rizika od AI tehnologije kako bi se utvrdilo kako njihove primjene mogu uticati na zdravlje, sigurnost i prava pojedinca.
Sistemi i dalje prave greške
Novi alat vještačke inteligencije koji koristi model GPT-4, kako pojašnjava Njujork tajms, stručnjaci nazivaju neuronskom mrežom, vrstom matematičkog sistema koji stiče i uči vještine analizom podataka.
- ChatGPT ima najveći porast broja korisnika u historiji
- Google pokreće Bard, svoj chat sa umjetnom inteligencijom
Kompanije poput Gugla i OpenAI počele su još 2018. godine da grade neuronske mreže koje su učile iz ogromnih količina digitalnog teksta, uključujući knjige, članke na Wikipediji, dnevnike razgovora i druge informacije prikupljene s interneta.
Mreže se nazivaju modeli velikih jezika ili LLM, koji određivanjem milijardi obrazaca u cijelom tom tekstu uče da sami generišu tekst, uključujući tvitove, seminarske radove i kompjuterske programe. Tokom godina, ističe list, OpenAI i druge kompanije izgradile LLM-ove koji uče iz sve više podataka.
Ovo je poboljšalo njihove sposobnosti, ali sistemi i dalje prave greške, naglasio je Njujork tajms, dodajući da LLM ipak često pogriješe činjenice i izmišljaju informacije bez upozorenja, što je fenomen koji istraživači nazivaju "halucinacija".
Budući da sistemi isporučuju sve informacije s nečim što izgleda kao potpuna činjenica, ljudima je često teško reći šta je ispravno, a šta pogrešno, ukazuje list na mišljenja stručnjaka. Upozoravaju da bi ovi sistemi mogli biti zloupotrebljeni za širenje dezinformacija brže i efikasnije nego što je to bilo moguće u prošlosti. Također vjeruju da bi se to čak moglo koristiti za uticaj na ponašanje ljudi širom interneta.
Iako su neki potpisnici pisma poznati po tome što su više puta izražavali zabrinutost da vještačka inteligencija može uništiti čovječanstvo, drugi, uključujući profesora na njujorškom univerzitetu Gerija Markusa, više zabrinjavaju kratkoročne opasnosti, kao što su širenje dezinformacija i rizik da će se ljudi oslanjati na ove sisteme za medicinske i emocionalne savjete, napisao je Njujork tajms.
Facebook Forum