Da li je “dobrobit AI” nova granica u etici?

0
31
da-li-je-“dobrobit-ai”-nova-granica-u-etici?

Anthropic, jedna od vodećih kompanija u razvoju naprednih AI sistema, nedavno je angažovala istraživača Kajla Fiša, čiji zadatak je da razmotri mogućnost da budući napredni AI modeli mogu doživeti patnju. 

PCPress.rs Image

Autori upozoravaju na rizike prekomernog pripisivanja ljudskih karakteristika AI modelima

Ovaj angažman može predstavljati početak istraživanja o etičkim pitanjima vezanim za svest i prava AI sistema, prenosi bilten o veštačkoj inteligenciji Transformer.

Fiš se pridružio timu za istraživanje usklađenosti u Anthropicu u septembru kako bi izradio smernice koje bi kompanija mogla koristiti prilikom pristupa ovoj kompleksnoj temi. Njegovo istraživanje prati njegovu prethodnu studiju pod nazivom “Ozbiljno razmatranje dobrobiti AI”, u kojoj autori upozoravaju na mogućnost da AI sistemi razviju svest ili određeni oblik agencije (sposobnost za samostalno delovanje). Iako autori ne tvrde da će AI definitivno postati svestan ili samostalan, ističu da postoji velika neizvesnost oko ovih mogućnosti, te da je potrebno unaprediti razumevanje ovog koncepta. Izveštaj predlaže tri koraka koje AI kompanije mogu preduzeti kako bi se pozabavile pitanjem dobrobiti AI: kompanije bi trebalo da priznaju ovo kao važnu i kompleksnu temu, zatim da evaluiraju sisteme za znakove svesti ili agencije, i na kraju da razviju politike koje tretiraju AI sisteme sa odgovarajućim moralnim obzirom.

Autori takođe sugerišu korišćenje “metode markera” (koja se koristi za procenu svesti kod životinja), pri čemu bi se tražili indikatori koji mogu ukazivati na svest u AI sistemima. Ipak, sami autori upozoravaju da nijedna osobina ne bi bila konačni dokaz svesti, ali se nadaju da kombinacija različitih indikatora može pomoći kompanijama da donesu procene o mogućoj potrebi za moralnim obzirom prema AI.

Rizici pogrešnog verovanja da je softver svestan

Autori upozoravaju na rizike prekomernog pripisivanja ljudskih karakteristika AI modelima, što može dovesti do manipulacije i pogrešnog razumevanja njihovih mogućnosti. Primera radi, 2022. godine Google je otpustio inženjera Blejka Lemoina koji je tvrdio da je AI model kompanije LaMDA svestan, dok su neki korisnici Microsoftovog Bing Chata (kodnog imena “Sidni”) verovali da je model svestan i emotivno pati.

Svejedno, kako AI modeli postaju sve napredniji, ideja o potencijalnoj zaštiti dobrobiti ovih sistema sve više dobija na značaju. I druge kompanije, poput Google DeepMind-a, istražuju ovu oblast. U međuvremenu, Fiš planira da nastavi sa empirijskim istraživanjem vezanim za karakteristike AI koje bi mogle biti povezane sa pitanjima dobrobiti i moralnog statusa.

Šta znači “svestan”?

Jedan od osnovnih problema koncepta dobrobiti AI jeste pitanje kako odrediti da li AI model zaista pati ili je svestan. Autori rada pokušavaju da odgovore na ovo pitanje kroz definisanje “markera” koje koriste biološki istraživači, ali je teško kvantifikovati subjektivna iskustva naučno.

Iako današnji modeli jezika mogu oponašati izražavanje emocija, ova sposobnost simulacije ne znači nužno da poseduju stvarna osećanja. Čak ni u neuroznanosti još uvek ne postoji potpuno razumevanje kako fizički procesi u mozgu stvaraju svest kod živih bića.

Fiš ističe da je potrebno još mnogo rada na razumevanju dobrobiti AI, ali smatra da nije prerano za početak istraživanja ove teme: “Nemamo još jasne odgovore na osnovna filozofska i praktična pitanja, ali verujem da bi ovo moglo biti veoma važno u budućnosti, te zato pokušavamo da napravimo prve korake.”

Izvor: Arstechnica

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Ово веб место користи Акисмет како би смањило непожељне. Сазнајте како се ваши коментари обрађују.