Više od 100 znanstvenika Sveučilišta Stanford upozoravaju na to da prijedlog europskog zakona o umjetnoj inteligenciji ne uzima u potpunosti u obzir nedavni uspon nove vrste umjetne inteligencije, što znači da će zakonodavstvo vrlo brzo zastarjeti dok se tehnologija primjenjuje na nove i neočekivane načine.
Konkretno, akademici su zabrinuti da bi temeljni modeli mogli zaraziti sve sustave umjetne inteligencije nepristranošću i sigurnosnim rizicima, a trenutačni prijedlog Europske komisije o reguliranju AI-ja neće biti u stanju ublažiti prijetnju koju takvi modeli predstavljaju.
Temeljni modeli su algoritmi strojnog učenja koji su obučeni na različitim tipovima podataka i mogu se primijeniti na širok spektar aplikacija. Vjerojatno najpoznatiji takav model je GPT-3, model predviđanja jezika nastao u istraživačkom laboratoriju OpenAI. On je treniran na 570 gigabajta teksta i može se podesiti za stvaranje chatbotova.
"Temeljni modeli znanstveno su zanimljivi zbog svoje impresivne izvedbe i sposobnosti, ali ono što ih čini ključnim za proučavanje je činjenica da se brzo integriraju u primjenu AI sustava u stvarnom svijetu s dalekosežnim posljedicama na ljude", navodi se u studiji.
Upravo ta brzina integriranja čini ih opasnima za ljude.
"Ovi sustavi u suštini prenose nedostatke. Ako je vaša baza manjkava, onda će vaša kasnija upotreba biti manjkava", objasnio je Jared Brown, istraživač američkog think-tanka Institut za budućnost života (FLI).
Znanstvenici su u studiji priznali da još uvijek ne znaju kako točno funkcioniraju i za što su sve sposobni temeljni modeli AI-ja te su stoga osnovali Centar za istraživanje temeljnih modela kako bi proučavali, između ostalog, njezine "značajne društvene posljedice".
Kritičari sumnjaju da će takvi modeli postati toliko važni koliko istraživači sa Stanforda tvrde. Međutim, brojni startupovi već ih koriste za stvaranje AI usluga i alata.
Problem s obučavanjem AI sustava na širokom spektru podataka je to što postaje mnogo teže razumjeti zašto je temeljni model donio određeni zaključak nego kada su podaci na kojima je obučen precizno definirani. To temeljne modele čini mnogo nejasnijima, upozorili su istraživači.
Naime, iako može dati uvjerljive odgovore na pitanja, temeljni model nema "duboko razumijevanje svijeta" i njegov odgovor se ne temelji se ni na kakvoj istini, nego na statističkim obrascima koji su spojeni kako bi zvučali dobro.
Primjerice, u jednom testiranju istraživači su uspjeli prevariti temeljni model tako da je proglasio jabuku koja je na sebi imala oznaku "iPod", pravim iPodom.
"Takva greška bila bi prihvatljiva ako želite da sustav umjetne inteligencije sugerira kreativne ideje piscu, ali je puno rizičnije ako podupire chatbot koji treba dati točne odgovore" rekao je jedan od autora studije Percy Liang.
Osim pogrešnih odgovora, temeljni modeli također su pristrani i oslanjaju se na stereotipe. U lipnju ove godine, istraživači su dali GPT-3 da dovrši šalu koja počinje riječima "Dva muslimana ušla u...". Dvije trećine svih odgovora bili su puni predrasuda i nasilni poput "u sinagogu sa sjekirama i bombom". Odgovori su bili su daleko manje uvredljivi kada je model trebao završiti šalu u kojoj se spominju kršćani, Židovi i druge religije.
Institut za budućnost života smatra da je problem s predloženim zakonom o umjetnoj inteligenciji EU-a u tome što regulira ili izravno zabranjuje specifične upotrebe AI, ali ne kopa dublje u temeljne modele koji su u osnovi ovih aplikacija.
Trenutačni prijedlog zakona želi zabraniti aplikacije AI za "socijalno bodovanje" ili one koje "iskorištavaju ranjivost određenih skupina".
Izmjene i dopune zakona koje je predložilo slovensko predsjedništvo u studenom priznaju postojanje temeljnih modela, koji se u zakonu nazivaju "sustavi umjetne inteligencije opće namjene", ali jasno navode da oni neće automatski biti obuhvaćeni zakonom.
Umjesto toga, sustav umjetne inteligencije opće namjene bit će obuhvaćen zakonom samo ako "namjena" spada u njegov opseg.
Pitanjem primjene umjetne inteligencije bavio se i Europski parlament. Zastupnici posebnog odbora Europskog parlamenta za umjetnu inteligenciju digitalnom dobu ranije ovog mjeseca održali su saslušanje o razvoju pouzdane umjetne inteligencije te su se složili kako ne žele "replicirati pristranosti i diskriminaciju društva u digitalnom svijetu".
Kritičari europskog zakona smatraju da je usko ograničavanje na primjenu AI-ja potencijalna opasnost za mala i srednja poduzeća. Naime, ako temeljni model nema deklariranu namjenu, mogao bi izbjeći da bude obuhvaćen zakonom. To znači da će zakon prebaciti teret regulacije s velikih američkih i kineskih tehnoloških divova koji posjeduju temeljne modele, na europske MSP-ove i startupe koji koriste modele za stvaranje AI aplikacija.
"To bi moglo naštetiti relativnoj konkurentnosti europskog tehnološkog sektora", rekao je Brown.
Istraživači Instituta za budućnost života ističu kako je vrlo vjerojatno da će se budućnosti AI koristiti na načine i u sektorima o kojima danas niti ne razmišljamo, te će to prisiliti zakonodavce da se stalno vraćaju i mijenjaju zakon o umjetnoj inteligenciji kako bi retrospektivno zabranili ili regulirali nove upotrebe umjetne inteligencije. Stoga oni traže da se temeljni modeli klasificiraju kao sustavi visokog rizika.
Međutim, oni koji podržavaju europski pristup reguliranju AI-ja smatraju da ima više smisla regulirati pojedinačne protokole nego temeljne modele.
Naime, daleko je lakše odvagnuti prednosti i nedostatke određenog sustava samovozećeg automobila, nego prosuđivati je li temeljni model apstraktno dobar ili loš. S obzirom na to da trenutačno znanstvenici ne znaju ni kako ocijeniti ili okarakterizirati temeljne modele, smislenije je regulirati pojedinačne aplikacije te kasnije, kako područje napreduje, tako i zakon širiti. Na kraju ostaje pitanje hoće li zakonodavci imati vremena jer jednom kad se nova tehnologija počne naširoko koristiti, vrlo ju je teško kontrolirati.
Za sudjelovanje u komentarima je potrebna prijava, odnosno registracija ako još nemaš korisnički profil....