Kako obuzdati umjetnu inteligenciju?
Umjetna inteligencija može pisati eseje ili pomoći u dijagnozi bolesti, ali također može proizvesti dezinformacije i diskriminaciju. Zato EU želi umjetnu inteligenciju regulirati zakonom – i to još prije EU izbora 2024.
Počelo je prije otprilike godinu dana ovom rečenicom: „Obučili smo model koji se zove ChatGPT i koji s ljudima komunicira konverzacijom". Ovako, prilično nerazumljivo, kompanija OpenAI je predstavila svog chatbota na vlastitoj internetskoj stranici. Uslijedile su ovacije, horor scenariji ali i mnogo toga između ove dvije krajnosti. Veliko uzbuđenje oko ChatGPT-a je splasnulo, istovremeno aplikacije umjetne inteligencije postaju sve više dio svakodnevnog života.
To se primjećuje i u konzultantskoj agenciji iz Mainza „Robotspaceship", koja proizvodi i digitalne sadržaje. „Koristimo ChatGPT za razvoj koncepata za podkastove ili generatore slika za kreiranje grafičkog dizajna", kaže vlasnik Oliver Kemmann. Umjetna inteligencija može ubrzati mnoge procese, uključujući i kreativne, kaže on, ali dodaje: „Potrebna nam je regulativa. Ali to mora biti učinjeno kako treba, ne smijemo pretjerati s reguliranjem."
Regulativa na razini EU-a - različite razine rizika
Parlament EU-a, Europska komisija i države članice već mjesecima pokušavaju ostvariti tu ravnotežu. Riječ je o „Zakonu o umjetnoj inteligenciji" (AI Act), kojim se umjetna inteligencija regulira na europskoj razini.
U suštini, „Zakon o umjetnoj inteligenciji" ima za cilj da regulirati njenu primjenu, a ne samu tehnologiju. Predviđene su različite razine rizika: zabrana, visoki rizik i ograničeni rizik.
Na primjer, treba zabraniti „društveno bodovanje" (Social Scoring) putem umjetne inteligencije, odnosno procjenu građana na temelju njihovog ponašanja u društvu. Kao „visokorizični sustavi umjetne inteligencije" označeni su oni koji se koriste u zdravstvenom sektoru ili pri zapošljavanju. Na primjer, korištenje umjetne inteligencije za pomoć u dijagnostici bolesti ili selekciji kandidata za posao. Za aplikacije koje predstavljaju samo ograničeni rizik predviđena je obveza transparentnosti, a za one s minimalnim rizikom nema nikakvih posebnih obveza.
„Ovaj pristup koji se temelji na stupnjevanju rizika u principu ima smisla", kaže Sandra Wachter, profesorica tehnologije i regulative na Sveučilištu u Oxfordu. To se odnosi makar na sustave umjetne inteligencije koji se koriste za podršku donošenju odluka. U oblastima migracija, kaznenog prava i osiguranja, na primjer, mora se osigurati da umjetna inteligencija ne diskriminira ljude.
U nekim oblastima, međutim, „neobjašnjivost" odluka umjetne inteligencije je manje dramatična. „Ako mi Netflixov algoritam predloži film, moram li zaista razumjeti zašto je to upravo tako učinio", pita se Wachter.
S druge strane, generativna umjetna inteligencija kao što je ChatGPT, ne bi smjela biti „crna kutija".
Problem s osnovnim modelima umjetne inteligencije
I upravo tu je nedavno došlo do spora između institucija EU-a, o tome koji propisi trebaju vrijediti za takozvane osnovne modele umjetne inteligencije, koji su oboružani ogromnom količinom podataka i mogu se koristiti u različite svrhe. To je neka vrsta „umjetne inteligencije za sve namjene".
Najpoznatiji primjer je model „GPT 4", koji je „hranjen" ogromnim količinama tekstova s interneta i na kojem je zasnovana trenutna verzija ChatGPT.
Europski parlament planirao je da „Zakonom o umjetnoj inteligenciji", uvede vlastita pravila za osnovne modele i, između ostalog, da ih obveže da minimiziraju rizike po zdravlje, osnovna prava i demokraciju.
Njemačka, Francuska i Italija za princip dobrovoljnosti
Tijekom pregovora, Njemačka, Francuska i Italija, vjerojatno ne samo zbog pritiska domaćih kompanija za umjetnu inteligenciju, su insistirale da na se osnovne modele ne bi trebala primjenjivati dodatna pravila.
Umjesto toga, te tri zemlje predlažu princip dobrovoljnosti: programeri umjetne inteligencije bi, između ostalog, trebali objasniti funkcionalnost i mogućnosti svog modela u nekoj od uputstva za upotrebu.
„Striktna i rigidna regulacija" osnovnih modela je problematična iz dva razloga, kaže Ralf Wintergerst, predsjednik Bitkoma, udruge njemačke IT industrije.
„Prvo, raznovrsnost upotrebe osnovne umjetne inteligencije onemogućava ponuđačima da efikasno procjene i smanje rizik. Drugo, tehnički razvoj je brz, posebno na razini ovih modela, tako da bi fiksna pravila u Zakonu o umjetnoj inteligenciji brzo zastarjela", kaže Wintergerst. „Obavezna samoregulacija ne znači da nema pravila. Međutim, ona moraju biti praktično izvodljiva i dinamički prilagodljiva, bez „nepotrebnih prepreka izazvanih prekrutim pravilima", dodaje Wintergerst.
Međutim, neki stručnjaci vjeruju da dobrovoljna obveza nije dovoljna kada se radi o „umjetnoj inteligenciji za sve". „Ako se tehnologija može koristiti na tako raznolik i potencijalno štetan način, onda po definiciji spada u kategoriju visokog rizika", kaže Sandra Wachter.
Potrebno je i jedno i drugo: transparentnost i osobna odgovornost, ali i jasno definirane granice. „To je pomalo kao u supermarketu. Ako uzmem konzervu juhe, važno je da na njoj jasno piše koje sastojke sadrži", kaže Wachter, „ali moraju postojati pravila da određene stvari jednostavno ne smiju biti u juhi".
Kako protiv opasnosti od mase dezinformacija i olakšanog kriminala?
Wachter vidi posebnu opasnost u činjenici da se generativni odnosno osnovni modeli umjetne inteligencije koriste za generiranje mase dezinformacija ili kako bi se olakšao kriminal.
„Potrebno ih je tako programirati da korisnik ne može samo tako brzo shvatiti kako izgraditi eksplozivnu napravu ili izvrši ubojstvo bez tragova", kaže Wachter. Na primjer tvrtka OpenAI, koja je stvorila ChatGPT, želi samostalno spriječiti odgovarajuće odgovore.
Također se mnogo raspravlja o pitanju treba li sadržaj generiran umjetnom inteligencijom biti označen nekom vrstom digitalnog vodenog pečata, kako bi se spriječila obmana.
„To neće funkcionirati", kaže konzultant za inovacije Oliver Kemmann. Takve oznake o transparentnosti bi se vjerojatno mogle prelagano ukloniti.
Sandra Wachter na to gleda drugačije. „To je neka vrsta igre mačke i miša. Ali, uklanjanje vodenog pečata bi se moglo tretirati kao kazneno djelo."
Zašto je važno požuriti sa zakonom
Teško je predvidjeti koja će pravila EU konkretno nametnuti programerima i korisnicima umjetne inteligencije.
Raspravljalo se i o tome treba li biti moguć stupnjevani proces za osnovne modele: odnosno određena pravila samo za najveće ili najmoćnije među njima.
Također se često čulo da zakon možda uopće neće biti donijet.
„Zakon o umjetnoj inteligenciji" mogao bi pomoći u stvaranju neophodnog povjerenja u sustave umjetne inteligencije, kaže predsjednik Bitkoma Wintergerst. Sljedeći korak je da se brzo razjasni koji će organi nadzirati poštovanje pravila.
„Ne samo zabrane, nego i pravna nesigurnost može značiti da se umjetna inteligencija više neće razvijati u Europi, nego negdje drugdje na svijetu", kaže Wintergerst.
U svakom slučaju, vrijeme za donošenje „Zakona o umjetnoj inteligenciji" ističe, ne samo zato što se tehnologija ubrzano razvija, nego i zato što će u lipnju 2024. biti izabran novi parlament Europske unije.
Razgovor RSS komentara novi komentar ↓
Novi komentar