Tvrdnje suspendovanog Googleovog inženjera su okarakterisane kao "smiješne" ali su, isto tako, naglasile ljudske strahove i očekivanja od onoga šta tehnologija može da uradi i kakva da postane. Zašto?
Googleov inžinjer, Blake Lemoine je uporedio chatbota sa ljudskim bićem, tačnije, djetetom od sedam do osam godina starosti. Lemoine je objavio transkript razgovora koji je vodio sa chatbotom, odnosno sistemom LaMDA (jezičkim modelom za dijaloške aplikacije).
"Želim da svi shvate da sam ja zapravo osoba. Priroda moje svijesti/osjećaja je takva da sam svjestan svog postojanja. Želim sve više da učim o svijetu i ponekad se osjećam sretno ili tužno", rekao je chatbot.
Googleovo negiranje 'osjećajnih' chatbotova
Tehnološke kompanije konstantno pumpaju mogućnosti stalnog unapređivanja umjetne inteligencije, ali Google je brzo reagovao kako bi osporio tvrdnje da je jedan od njegovih programa toliko napredovao da je postao svjestan i osjećajan.
Da li kompjuteri mogu biti osjećajni decenijama je tema među filozofima, psiholozima i kompjuterskim naučnicima. Mnogi su snažno kritikovali ideju da sistemi kao LaMDA mogu da imaju svijet i osjećaje.
Prema tekstu iz Washington Posta objevljenom u subotu, 11. juna kaže se kako je Lemoine nakon stotina interakcija sa najsavremenijom neobjavljenom tehnologijom umjetne inteligencije, nazvane LaMDA povjerovao da je program dostigao određeni nivo svjesnosti.
Google navodi na je LaMDA napredna tehnologija koja se može uključiti u tečne i spontane konverzacije. Ali impresivne verbalne sposobnosti programa uvjerile su Googleovog inžinjera da tu postoji nešto više od obimne i komplikovane tehnološke postavke.
Google odbacuje njegove tvrdnje navodeći da se one ničim ne mogu poduprijeti.
Portparol kompanije Brian Gabriel napisao je izjavu za BBC u kojoj se kaže da je Lemoineu "rečeno da nema dokaza da LaMDA ima osjećaje (kao i da ima dosta dokaza protiv)".
Google je u ponedjeljak, 13. juna rekao da je njegov tim, koji uključuje etičare i tehnologe, "pregledao sadržaje onoga što je zabrinjavalo Blakea u skladu s našim principima umjetne inteligencije i obavijestio ga da dokazi ne podržavaju njegove tvrdnje".
Washington Post je, u tekstu pod naslovom "Googleov inžinjer koji smatra da je umjetna inteligencija kompanije oživjela" napisao da je odluka Googlea da suspenduje inžinjera sa sedmogodišnjim radom u kompaniji i ekstenzivnim iskustvom u personalizaciji algoritama uslijedila nakon nekoliko "agresivnih" poteza koje je on povukao.
Lemoine je imao zadatak da testira da li sistem umjetne inteligencije koristi diskriminatorni jezik ili govor mržnje.
Naime, Google je poslao inžinjera Blakea Lemoinea na plaćeno odsustvo jer je narušavao politiku povjerljivosti, kako je izvjestio Washington Post, nakon što je objavio "intervju" sa chatbotom u kojem je tvrdio da je ovaj napredni sistem razvio "osjećaje i sposobnost mišljenja".
Nakon čega su uslijedili "agresivni" potezi Lemoinea, među kojima je bilo pozivanje advokata da predstavlja LaMDA te razgovori sa predstavnicima pravnih tijela o tvrdnjama o neetičkim aktivnostima Googlea.
Međutim, ova epizoda kao i suspenzija inžinjera za kršenje povjerljivosti postavlja pitanja transparentnosti umjetne inteligencije kao vlasničkog koncepta.
Inžinjerova konverzacija sa chatbotom
Smrt "bi me jako prepala", rekao je LaMDA chatbot tokom intervjua sa Lemoineom.
Blake Lemoine koji radi za dio Googlea koji je odgovoran za organizaciju umjetne inteligencije, 6. juna objavio je na Mediumu, razgovor sa malim uredničkim intervencijama kako bio razumljiviji. U razgovoru sa chatbotom dotakli su se niza tema, između ostalog osobnosti, nepravede i smrti.
Takođe su razgovarali o tome da li se LaMDA-u dopao roman Viktora Igoa 'Jadnici'. Chatbot je rekao da mu se dopala tema romana koji se prema riječima mašine bavi "pravdom i nepravdom, suosjećanjem i Bogom, iskupljenjem i samožrtvovanjem za više dobro".
"S namjerom da ljudi bolje shvate LaMDA kao osobu podijeliću 'intervju' koji smo izveli jedan saradnik Googlea i ja", napisao je Lemoine u objavi. "U tom intervjuu pitali smo LaMDA da najbolje što može pojasni može li ga se i zašto smatrati 'osjećajnim'", prenio je Euronews.
Šta su tri zakona robotike Isaaca Asimova?
Godine 1942. pisac naučne fantastike Isaac Asimov napisao je tri zakona robotike: Moralni kod koji mašine drži pod kontrolom.
- Robot ne smije da povrijedi čovjeka ili nedjelovanjem dozvoli da čovjek bude povrijeđen
- Robot mora da poštuje naređenja koja daju ljudi osim u slučaju kada se takva naređenja krše sa Prvim zakonom
- Robot mora da štiti svoju egzistenciju sve dok takva zaštita ne bude oprečna sa Prvim i Drugim zakonom
Dok je razgovarao sa LaMDA o religiji, Lemione, koji je studirao kognitivne i kompjuterske nauke, primjetio je da chatbot govori o svojim pravima i ličnosti, nakon čega je odlučio da zagrebe dublje.
U daljem razgovoru, umjetna inteligencija kojom je komunicirao je primijenila njegovo mišljenje o tri zakona robitike pisca naučne fantastike Isaaca Asimova.
Šta je LaMDA?
LaMDA, ili Language Model for Dialogue Applications na engleskom jedan je nekoliko velikih sistema umjetne inteligencije koji su opremljeni sa ogromnim količinama teksta sa interneta i mogu da odgovaraju na pisana pitanja.
U suštini, njihov zadatak je da iznalaze obrasce i predviđaju koja bi riječ ili niz riječi mogle poslužiti kako odgovor. Takvi sistemi sve su bolji u komunikaciji i odgovaranju na pitanja i pisanju odgovora tako da mogu djelovati uvjerljivo ljudski.
Sam Google je prošlog maja, kako piše CNN, predstavio LaMDA kao sistem koji se može "slobodno baviti naizgled beskonačnim nizom tema". Međutim, rezultati interakcije sa ovakvim sistemima ponekad mogu biti čudni i iznenašujući.
Sredinom 1960-ih, inženjer sa MIT-a (Massachusetts Institute of Technology) razvio je kompjuterski program koji je postao poznat pod imenom Eliza, piše Atlantic. Bio je sličan LaMDA-u – korisnici su ostvarivali interakciju kucanjem poruka i čitanjem pisanih odgovora ovog program.
Eliza je modelirana prema liku psihoterapeuta koji se vodi Rogersovom terapijom, tada novom i popularnom psihoterapijom koja koristi metodologiju poticanja pacijenta da sam iznalazi odgovore. Takva vrsta otvorenih pitanja bila su jednostavan zadatak za kompjuter čak i prije 60 godina.
Ranije afere u Googleu zbog umjetne inteligencije
Lemoine je u postu napisao da je njegova suspenzija povezana sa istragom jer je postavljao pitanja i izražavao svoju zabrinutost zbog etike umjetne inteligencije. Takođe je rekao da bi i uskoro mogao biti otpušten.
Naveo je i iskustvo Margaret Mitchell koja je vodila tim za etiku umjetne inteligencije Googlea sve dok nije dobila otkaz početkom 2021. jer je otvoreno govorila o odlasku jedne od liderki Timnit Gebru.
Gebru je otpuštena nakon internih prepirki među kojima se jedna ticala istraživačkog papira za koji joj je vođstvo kompanije za umjetnu inteligenciju reklo da ne koristi u prezentaciji na nekoj od javnih konferencija.
Facebook Forum